Wydział Zarządzania i Komunikacji Społecznej Uniwersytet Jagielloński Rafał Cieniek Nowe sposoby dyfuzji treści w sieci na przykładzie polskich portali internetowych Rozprawa doktorska napisana pod kierunkiem dr hab. Magdaleny Szpunar prof. Uniwersytetu Jagiellońskiego Kraków 2020 Dla Dasi… Wstęp…………………………………………………………………………………5 Rozdział I. Pojęcie dyfuzji treści w nauce. Zarys problematyki………..………….9 1.1. Definicja, rozumienie i typologie dyfuzji w nauce…………………………..……9 1.2. Treść jako przedmiot dyfuzji w kontekście big data i humanistyki cyfrowej…………………………………………………………………………..…17 1.3. Użytkownik jako podmiot dyfuzji w sieci kontekstualnej i kulturze partycypacji……………………………………………………………………….…37 1.4. Propozycja modelu dyfuzji danych, informacji i wiedzy w środowisku big data…………………………………………………………………………….....….60 Rozdział II. Portale internetowe i procesy algorytmizacji…………………….....71 2.1. Definicja i typologia portali internetowych…..………………………………....71 2.2. Specyfika portali horyzontalnych w Polsce………………….………………….77 2.3. Operacjonalizacja narzędzi stosowanych w badaniach………………………….92 2.4. Główne kanały dyfuzji treści w portalach…………………….………………...96 2.5. Algorytm w mediach…………………………………..………………………106 Rozdział III. Wyszukiwarki i media społecznościowe w procesie dyfuzji……...124 3.1. Wyszukiwarki i ich rola w procesach wyszukiwawczo-informacyjnych ……...125 3.2. Optymalizacja treści i „Google News” jako nowe kanały dyfuzji…………….137 3.3. Profile głównych portali informacyjnych w Polsce……………………………147 Rozdział IV. Metodologia badań własnych nad procesami dyfuzji ……..……..158 4.1. Badania site-centric…………………………..………………………………..158 4.2. Badania user-centric…………………………………..……………………….164 4.3. Badania content-centric……………………...………………………………...167 4.4. Badania nad dyfuzją…………….……………..………………………………173 Rozdział V. Obraz dyfuzji z wnętrza portali……………..……………………...184 5.1. Metodologiczne podstawy prowadzenia badań jakościowych w formie wywiadów……………………………………………………………………….…184 5.2. Podstawowe kanały dyfuzji…………………..………………………………..203 5.3. Dyfuzja a zagrożenia i decyzje wydawnicze…………………..……………….209 Zakończenie…………………..…………………………………………………...215 Suplement metodologiczny………..……………………..……………………….218 Sekcja 1. Kwestionariusz…………………….…………………………………….218 Sekcja 2. Wywiady………………………………..………………………………..219 A) Product manager, Onet…………………………………..……………………...219 B) Kierownik projektów, Interia…………………………..………………………..222 C) Product manager, Wirtualna Polska…………………………………..…………225 D) Programista, Onet…………………………………..…………………………...227 E) Programista, Wirtualna Polska……………………………..……………………229 Sekcja 3. Charakterystyka próby badawczej……………………….………………231 Sekcja 4. Dane dot. profili portali w mediach społecznościowych……………...….232 Wykaz ilustracji, tabel i wykresów………………………………..………………..234 Bibliografia………………………………………..………………………………238 Netografia…………………………………………………………………………251 WSTĘP Badanie dyfuzji można porównać do badań nad przepływem rzeki (symbolizującej Internet). Wyobraźmy sobie strumień, którego wycinek obserwujemy w czasie. Każda drobinka piasku to jeden człowiek, zaś każda kropla wody, to jakiś zasób, treść (dane, wiadomości, informacja, wiedza). Krople mieszają się, odbijają od siebie w pozornie chaotycznych ruchach i trafiają na kolejne drobinki piasku płynące w obserwowanej rzece. Drobinki te, często płyną w zwartych grupach (rodzina, grupa towarzyska, znajomi z pracy), co ma istotny wpływ na rozprzestrzenianie się kropli między nimi. Drobinki mogą też w nieskończoność powielać istniejące krople oraz tworzyć nowe, własne kopie, aby potem nadać im odpowiedni bieg (do pewnego stopnia kierunkować ich przepływ). Czasem kropla może trafić z jednego końca badanego wycinka strumienia na drugi, tylko poprzez sieć zależności między drobinkami piasku. Badanie dyfuzji w tym ujęciu będzie w istocie pochyleniem się nad pozornie chaotycznymi ruchami kropel. Badania nad strumieniem nie ograniczają się jednak tylko do piasku i drobinek wody. Krople nie biorą się znikąd i z czasem mogą zostać zanieczyszczone. Doświadczenie pokazuje, że rzeka najczystsza jest przy źródle (pierwotnym nadawcy). Informacja nieprzetworzona pojawia się zatem tylko wtedy, gdy całkiem nowa kropla wpadnie do rzeki. Takich informacji dostarczają m.in. media, ale też sami użytkownicy. Przedmiotem badań „nad rzeką” będą nie tylko pojedyncze krople i ich dyfuzja w rzece, ale też zanieczyszczenia, które się do niej dostają czy wiry, które w niej powstają. Takie wiry i zanieczyszczenia (np. bańki informacyjne, fake newsy1) mogą wzmocnić lub osłabić dyfuzję kropel. 1 Według definicji zawartej w „Małym leksykonie postprawdy” fake news to fałszywa wiadomość, często o charakterze sensacyjnym, publikowana w mediach z intencją wprowadzenia odbiorcy w błąd w celu osiągnięcia korzyści finansowych, politycznych lub prestiżowych. Za: M. Wójcik (red.), Mały leksykon postprawdy, Wyd. Fundacja Wolność i Demokracja, 2018, [dostępny online:] https://wid. org.pl/wp-content/uploads/E_wydanie-Ma%C5%82y-Leksykon-Postprawdy.pdf [dostęp: 22.12.19r.]. Patrząc na wycinek rzeki badacz widzi, jak szybko przemieszcza się ona w czasie i ile kropel oraz drobinek piasku się w niej znajduje. To techniczny i statystyczny aspekt badań nad dyfuzją, pokazujący skalę zjawiska (liczba internautów i treści zamieszczanych w Internecie). Co więcej, żeby dobrze zrozumieć rzekę, trzeba też spojrzeć na jej koryto, czyli środek przekazu, ramy w jakich porusza się informacja. W biegu rzeki mogą powstawać tamy, które wstrzymają przepływ - algorytmy wykorzystywane np. przez Google i Facebooka, które mogą decydować co, kiedy i jak oglądamy. Niektóre krople wpadają do rzeki niezależnie od intencji drobinek piasku. W dyfuzji mamy przynajmniej częściową możliwość odcięcia się od różnych dopływów, a ich liczbę i charakter w jakiejś mierze kształtują nasze wybory. Z drugiej strony, badacz powinien zastanowić się nad tym, kto i w jakim celu ukształtował dno i koryto rzeki (programiści tworzący algorytmy, wielkie korporacje medialne) oraz jak rzeka wykorzystywana jest przez osoby z zewnątrz głównego nurtu (marketingowców, polityków, celebrytów i innych. Na rzece występują przemieszczające się razem z nią wiry istniejące niezależenie - liderzy opinii, ważni politycy, przywódcy duchowi, autorytety, sportowcy, celebryci. Rzeka może też zamarznąć, gdy Internet zostaje wyłączony. Takie wyspy lodu krążą po rzece i też mogą mieć znaczenie dla opisu zjawiska. Niekiedy wystąpienie takiego wiru może skończyć się utonięciem i faktyczną śmiercią człowieka, czego przykładem może być nagonka medialna, hejt. Innym razem podobny wir może pomóc w rozwiązaniu konkretnego problemu, na przykład pomoc w poszukiwaniach, możliwość wsparcia akcji charytatywnych, zapobieganie przestępstwom. Porównanie do rzeki pokazuje nam jeszcze inną perspektywę badawczą. Strumień paruje do otoczenia, a następnie skrapla się i wraca do rzeki wpływając na nią. Można więc mówić o „parowaniu idei” do świata zewnętrznego, co prowadzi do zmian w społeczeństwie i kulturze. Niniejsza praca jest próbą udzielenia możliwie pełnej odpowiedzi na pytania: w jaki sposób treści rozprzestrzeniają się w Internecie oraz jakie nowe kanały dyfuzji wykorzystywane są przez największe polskie portale internetowe2. Możliwie szeroki - sięgający miejscami do przestrzeni ontologicznej - opis analizowanego zjawiska, jest najważniejszą dyrektywą metodologiczną jaką się kieruję. Wśród współczesnych ekspertów z dziedzin takich jak medioznawstwo, socjologia, kulturoznawstwo, panuje niemalże powszechna zgodność, co do konieczności podejmowania prób interdyscyplinarnych badań, nad implikacjami zjawisk generowanych przez globalną sieć. Jednym z takich fenomenów jest dyfuzja zachodząca przy wykorzystywaniu Internetu, rozumiana jako szczególny rodzaj procesu komunikacji, która stanowi rdzeń 2 Mam na myśli Onet, Interię i Wirtualną Polskę, które są największymi polskimi korporacjami medialnymi działającymi Internecie, na co wskazują badania zaprezentowane w pracy, zob. s. 77. rozważań niniejszej dysertacji. Metodologia pracy powstała w przeświadczeniu, że współczesna humanistyka wymaga od badacza nie tylko teoretycznego opisu zjawiska, ale i praktycznego zastosowania danych pozyskanych w laboratorium3. Implikuje to konieczność wygenerowania konkretnych i aktualnych danych, dotyczących fluktuacji treści oraz zachowania użytkowników, które prezentuję i rozwijam w toku dysertacji, przy jednoczesnym krytycznym opisie wykorzystanych narzędzi badawczych. 3 U. Pawlicka, Humanistyka: pracownia, centrum czy laboratorium, „Nowa humanistyka. Teksty drugie”, nr 2017/1, s. 315. W pierwszym rozdziale omawiam kluczowe aspekty teoretyczne oraz terminologiczne dyfuzji jako zjawiska, mającego wielowymiarowy wpływ na kontekst społeczny i kulturowy. Kolejne podrozdziały stanowią próbę logicznego uporządkowania złożonej problematyki rozprzestrzeniania treści, począwszy od przedstawienia różnych definicji dyfuzji oraz tego, co i w jaki sposób może jej podlegać. Dalsze teoretyczne rozważania (w duchu humanistyki cyfrowej) nad rolą big data i nowych technologii w rozwoju sieci kontekstualnej i kultury partycypacji, stanowią punkt wyjścia do opisu współczesnego użytkownika Internetu (prosumenta) i wypracowania propozycji modelu dyfuzji opartej o wielkie zbiory danych. Drugą część pracy poświęcam na dookreślenie obszaru badawczego, jakim są największe polskie portale internetowe oraz wykorzystywane przez nie kanały dyfuzji. Zakładam, że innowacyjne podejście portali do dynamicznie zmieniającej się rzeczywistości technologicznej i medialnej sprawia, że rozwijają one nowe formy i strategie docierania do użytkowników sieci. Aby potwierdzić trafność hipotezy opisuję cechy algorytmizacji jako zjawiska społeczno-kulturowego, następnie przeprowadzam badania nad wykorzystywaniem algorytmów i personalizacją prezentowania treści w portalach, których wyniki poddaję dalszej weryfikacji, w wywiadach z pracownikami korporacji medialnych. W trzecim rozdziale dysertacji analizuję kolejne, największe kanały dyfuzji stosowane przez portale: wyszukiwarki internetowe oraz media społecznościowe. Zakładam, że trendy i profile w social mediach kreowane przez polskie portale internetowe, zyskują coraz większy zasięg wśród użytkowników. Aby sprawdzić hipotezę, wykorzystuję algorytmy do analizy big data w sieci oraz ilościowe badania własne. W pracy opisuję trendy w wyszukiwaniach oraz profile portali w mediach społecznościowych zakładając, że mogą one służyć jako narzędzia stymulujące dyfuzję. Kolejną część pracy poświęcam na przegląd metodologii, stosowanych w badaniach nad procesami dyfuzji w Internecie. Usystematyzowany opis różnych podejść badawczych, pozwala na określenie kryteriów, jakimi kierują się portale przy analizie rozprzestrzeniania zasobów w sieci. W podrozdziałach analizuję metodologie stosowane w badaniach nad dyfuzją oraz trzy podejścia badawcze: site-centric, user-centric i content-centric. Ostatni rozdział dysertacji zawiera analizę wyników badań jakościowych w formie wywiadów, które zostały przeprowadzone na potrzeby pracy. Dane uzyskane dzięki wywiadom eksperckim, pozwalają na weryfikację założeń stawianych w pracy. Ostatnia zakłada, że nowe kanały dyfuzji treści można wykorzystać do reagowania na zagrożenia i sytuacje kryzysowe w społeczeństwie. Wywiady z przedstawicielami największych polskich portali stanowią klamrę, wieńczącą cały proces badawczy. Wpływ nowych rodzajów dyfuzji na decyzje nadawców i odbiorców nie został jak dotąd opisany w nauce. Uzupełninie tej luki, pozwoli na poznanie nowych trendów rozwojowych portali internetowych, ocenę skuteczności różnych sposobów rozprzestrzeniania treści i lepsze zrozumienie przepływu informacji we współczesnym świecie. Przeprowadzone badania mogą zostać wykorzystane do optymalizacji sposobów personalizacji treści, informowania o zagrożeniach, udzielania pomocy w przypadku klęsk żywiołowych, zaginięć, czy zwiększenia efektywności kampanii marketingowych w sieci. ROZDZIAŁ I POJĘCIE DYFUZJI TREŚCI W NAUCE. ZARYS PROBLEMATYKI Rozwój wiedzy i jej dyfuzja są jedynym strażnikiem prawdziwej wolności. James Madison4 4 J. Madison, D. B. Mattern, James Madison’s „Advice to My Country”, wyd. University of Virginia Press, 1997 s. 41. 5 Najważniejszą właściwością sieci kontekstualnej jest dążenie do maksymalnego spersonalizowania wszystkich produktów i usług dostarczanych za pośrednictwem Internetu, zob. s. 38. 6 L. Wiśniakowska, Słownik wyrazów obcych, PWN, Warszawa 2007. 7 Rozumiana jako „powódź”, nadmiarowość wobec tego, co konieczne. Pierwszym krokiem, który chcę postawić w badaniach nad dyfuzją, jest sięgnięcie do etymologii i rozważenie znaczeń tego słowa, wykorzystywanego w wielu dziedzinach nauki. W oparciu o przegląd polskiej i zagranicznej literatury przedmiotu przedstawiam kompleksową definicję dyfuzji oraz proponuję jej typologię uwzględniającą społeczny i kulturowy wymiar zjawiska. Kontynuując rozważania teoretyczne, operacjonalizuję pojęcia „treści”, „danych”, „informacji” i „wiedzy”, jako elementów podlegających dyfuzji, skupiając się w szczególności nad rolą big data i nowych technologii w rozwoju sieci kontekstualnej5 i kultury partycypacji. Stanowi to punkt wyjścia do charakterystyki współczesnego użytkownika Internetu jako prosumenta. W oparciu o wcześniejsze rozważania w ostatnim podrozdziale wyjaśniam założenia proponowanego przeze mnie modelu dyfuzji informacji, wiedzy i danych w środowisku big data. Choć rozdział ma charakter teoretyczny, to dla lepszego zrozumienia wielowymiarowego fenomenu dyfuzji, posługuję się w nim również danymi statystycznymi. 1.1. Definicja, rozumienie i typologie dyfuzji w nauce Słowo „dyfuzja” pochodzi od łacińskiego „diffusio”, oznaczającego „rozlanie”6. Etymologia daje zatem przydatną wskazówkę na temat dyfuzji, bo można powiedzieć, że żyjemy w „kulturze rozlania”, w społeczeństwie rozchodzą się idee, niekiedy szczytne, innym razem niebezpieczne. Następuje także proces mieszania się kultur między sobą. Redundancja7 informacji bombardujących społeczeństwo z Internetu i tradycyjnych mediów wydaje się jedną z najbardziej charakterystycznych cech społeczeństwa XXI wieku. Sytuację taką prognozował Alvin Toffler w swojej książce „Szok przyszłości”8, kierując swoją uwagę na psychofizyczną barierę adaptacyjną jednostek, wobec szybkości zachodzących technologicznych przemian. W tym kontekście badania nad dyfuzją nabierają wymiaru nie tylko teoretycznego, ale też praktycznego. Poznanie sposobów rozprzestrzeniania się informacji w świecie może stanowić broń w walce z zagrożeniami, jak przestępstwa, terroryzm, epidemie, fałszywe informacje, propaganda. To także narzędzie, którego odpowiednie wykorzystanie może dać nam lepszy wgląd w społeczeństwo cyfrowe i kulturę cyfrową. 8 A. Toffler, Szok przyszłości, Wyd. Zysk i S-ka, Poznań 1998. 9 L. Drabik, E. Sobol, Słownik języka polskiego, PWN, Warszawa 2007. 10 Ibidem. 11 W. Kopaliński, Słownik wyrazów obcych i zwrotów obcojęzycznych z almanachem, Wyd. Rytm, Warszawa 2014. 12 R. Cach, A. Ciszewski, J. Kołaczkiewicz, Słownik. Fizyka, Wyd. Europa, Wrocław 2017, s. 49. Dwie definicje „dyfuzji” podaje „Słownik języka polskiego” PWN9. Zgodnie z pierwszą, stosowaną w naukach ścisłych, zjawisko to określić można, jako „samorzutne przenikanie cząsteczek jednej substancji do drugiej, prowadzące do wyrównania stężenia”. Druga definicja odnosi się do nauk humanistycznych i brzmi: „przenikanie elementów danej kultury do innej, prowadzące do powstawania podobieństw między nimi”10. W „Słowniku wyrazów obcych i zwrotów obcojęzycznych” Władysława Kopalińskiego czytamy, że dyfuzja to „samorzutne wyrównywanie stężenia (koncentracji), na skutek bezładnego ruchu cieplnego cząsteczek materii, powodujące mieszanie się różnych gazów, cieczy albo ciał stałych”11. Z przytoczonych wyżej definicji wynika, że pierwotnie słowo „dyfuzja” należało wyłącznie do aparatu pojęciowego właściwego dla nauk ścisłych. Dopiero z czasem, zostało zaadoptowane przez humanistów, wpisując się w szeroki kontekst badań nad społeczeństwem, kulturą i informacją, o czym za chwilę. Zgodnie z definicją fizyczną, dyfuzja to „samorzutne, bez udziału czynników zewnętrznych, wyrównywanie się składu”12. W mieszaninie gazów przyczyną dyfuzji jest różnica stężeń poszczególnych składników. Gaz, ze względu na swoje właściwości fizyczne, dąży do wyrównania ciśnienia w jednorodnym ośrodku. Dyfuzja polega więc na przemieszczaniu się cząsteczek gazu, z miejsc o dużej gęstości do miejsc o małej gęstości. Definicja chemiczna rozszerza powyższe rozumienie, opisując dyfuzję jako „samorzutne rozprzestrzenianie się cząsteczek gazów, cieczy lub substancji stałych”, spowodowane ich „ciągłym i chaotycznym ruchem molekularno-kinetycznym”13. Ostatecznie dyfuzja prowadzi do równomiernego rozprowadzenia cząstek w całym analizowanym układzie. Przebiega najszybciej w przypadku fazy gazowej, wolniej w cieczy, najwolniej w ciele stałym14. 13 R. Hassa, J. Mrzigod, J. Nowakowski, Podręczny słownik chemiczny, Wyd. Videograf II, Warszawa 2004, s. 38. 14 Pojawia się pytanie, czy podobną analogię można zastosować w przypadku dyfuzji treści przez różne media. Wydaje się to zasadne przy założeniu, że dyfuzja postępuje w innym tempie, w zależności od środka przekazu. W tym ujęciu najwolniej treści rozprzestrzeniałyby się poprzez prasę, szybciej poprzez radio i telewizję, najszybciej poprzez Internet zapośredniczony w technologiach mobilnych. 15 A. Jarynowski, A. Grabowski, Modelowanie epidemiologiczne dedykowane w Polsce, 2015, s. 6, [dostępy online:] http://www.czm.mif.pg.gda.pl/wp-content/uploads/fam/publ/jarynowski2.pdf [dostęp: 29.04.19r.]. 16 A. Jarynowski, Modelowanie…, op.cit. s. 6. Semantyczne rozważania nad dyfuzją wzbogaca biologia, wymieniając szczególny przypadek dyfuzji jakim jest osmoza, czyli przenikanie się dwóch roztworów o różnym stężeniu poprzez membranę stanowiącą rodzaj „gąbki” spowalniającej lub przyspieszającej dyfuzję (tzw. dyfuzja ułatwiona). Zjawisko to wykorzystywane jest m.in. w leczeniu, na przykład niektóre leki działające na bakterie na zasadzie osmozy, powodują ich rozsadzenie poprzez nadmiar wody, lub zabierając im wodę wysuszają je i doprowadzają do ich śmierci. Osmozę wykorzystują też rośliny, które dzięki niej dostarczają wodę z korzeni do liści. Dyfuzję odnajdziemy w aparacie pojęciowym epidemiologii, która fenomen ten pojmuje jako „dynamikę rozprzestrzeniania się choroby w przestrzeni geograficznej”15. W sukurs epidemiologii przychodzi matematyka, prezentując wzory równań, których zadaniem jest przewidzenie, jak szybko choroba rozprzestrzenia się w środowisku. Próba matematycznego opisu zjawiska nie powinna być uważana za szczególny rodzaj dyfuzji. W istocie jest to bowiem metodologia, służąca lepszemu poznaniu fenomenu, wykorzystująca modelowanie matematyczne i metody statystyczne do analizy wielkich zbiorów danych, w celu określenia prawdopodobieństwa rozprzestrzeniania się chorób w społeczeństwie, z uwzględnieniem zmiennych, mogących powodować zakłócenia dyfuzji16. Także nauki ekonomiczne wzbogacają analizę semantyczną omawianego pojęcia. Everett Rogers zdefiniował dyfuzję jako „proces dzięki któremu dochodzi do zakomunikowania innowacji, przez określone w czasie kanały, pośród członków systemu społecznego. Jest to specjalny rodzaj komunikacji, w którym wiadomość dotyczy nowych idei. Komunikacja jest procesem, w którym uczestnicy kreują i dzielą się informacją ze sobą, w celu osiągnięcia obopólnego zrozumienia”17. Sedno definicji to słowo „komunikowanie”, które jest szczególnie istotne w kontekście nauk o mediach. Zdaniem autora, dzięki dyfuzji dochodzi do upowszechnienia i przyswojenia nowych rozwiązań w społeczeństwie. Everett Rogers twierdzi, że „dyfuzja innowacji jest procesem rozprzestrzeniania się, upowszechniania innowacji w firmie i gospodarce, występującym wówczas, gdy po pierwszym udanym zastosowaniu nowego rozwiązania technicznego lub organizacyjnego następuje jej przyswojenie przez inne przedsiębiorstwa”18. W konsekwencji dzięki dyfuzji innowacji w społeczeństwie pojawia się zauważalna zmiana. 17 E.M. Rogers, Diffusion of innovation, Wyd. Simon&Schuster, Nowy Jork 2003, s. 5. 18 M. Brzeziński (red.), Zarządzanie innowacjami technicznymi i organizacyjnymi, Wyd. Difin, Warszawa 2001, s. 104. 19 A. Kiklewicz, Dyfuzja semantyczna w języku i tekście, „LingVaria” nr 2006/2, Wydział Polonistyki Uniwersytetu Jagiellońskiego, 2006, s. 10. 20 Diffusion, „Słownik języka angielskiego”, [dostępny online:] http://www.merriamwebster.com/ dictionary/diffusion [dostęp: 29.01.19r.]. 21 S. Kaiser, Interpretive Cultural Diffusion and Natural/Cultural Esotericism: Ecotourism and It’s Implications for Sustainable Resource Management, Small-Scale Fishery Development, and the Existential Crisis of the Modern Individual, „Undergraduate Honors Theses”, [dostępny online:] https://scholar.colorado.edu/honr_theses/769/ [dostęp: 2.02.19r.], 2015, s. 79. Termin „dyfuzja” wykorzystywany jest także w językoznawstwie, gdzie rozumie się go jako „wzajemne przenikanie znaczeń”19. Rozważania lingwistyczne dotyczą wyrażeń metaforycznych, których pierwotne znaczenie ulega zmianom, poprzez jednoczesne współwystępowanie znaczenia sekundarnego. Nowy językowy sens zwrotu, może wynikać z konwencji, kontekstu lub zamierzonego aktu nadawcy. Przykładem podobnej dyfuzji będzie zdanie: „muchę i człowieka można zabić gazetą”. Metaforyczny wydźwięk tego wyrażenia, wynika z dyfuzji semantycznej występującej w języku, mogącej zostać poprawnie zdekodowaną, przez odbiorców znających odpowiedni kontekst kulturowy. Angielski słownik online podaje cztery kolejne definicje analizowanego terminu. Dowiadujemy się z niego, że dyfuzję należy rozumieć również jako „przenikanie elementów kulturowych między społecznościami”, „przenikanie światła przez przeszkodę o półtransparentnej strukturze”, „rozmycie konturów w fotografowanych obiektach” oraz „formowanie rozwlekłych wypowiedzi”20. Fenomen dyfuzji jest również wykorzystywany w badaniach socjologicznych, antropologicznych, politologicznych i kulturoznawczych. Samuel Kaiser zauważa, że w przypadku dyfuzji ważny jest jej kontekst kulturowy21. Przekazywanie komunikatu między ludźmi wychowującymi się w innych tradycjach, bywa utrudnione ze względu na różne kody, którymi osoby te się posługują. Autor stwierdza, że w naukach o zarządzaniu przez wiele lat dominowało stanowisko postulujące badania tylko nad ekonomiką poszczególnych zjawisk (np. połowu ryb w różnych obszarach świata). Powyższe założenie było obarczone błędem metodologicznym, wynikającym z braku możliwości porównania społeczności, bez odwołania się do kontekstu kulturowego22, na przykład małą społeczność rybaków z wioski we Włoszech należy badać inaczej, niż posiadającą kilkadziesiąt kutrów firmę rybacką z San Francisco. Zdaniem Kaisera nauka poniosła porażkę, próbując stworzyć ekonomiczne ramy dla różnych przedsięwzięć na całym świecie, nie odwołując się do specyfiki danych kultur. 22 Ibidem, s. 80. 23 J. Kaufman, O. Patterson, Cross-National Cultural Diffusion: The Global Spread of Cricket, „American Sociological Review”, nr 70/1, 2005, s. 85. Inny przykład dyfuzji kulturowej opisują Jason Kaufman i Orlando Patterson. Autorzy szukają powodów, dla których gra w krykieta rozprzestrzeniła się z Wielkiej Brytanii na inne kraje świata. W swoich konkluzjach zauważają, że krykiet stał się popularny, ale tylko w krajach, które miały kulturowe powiązania z Wielką Brytanią jak np. USA, Kanada czy Australia23. Powodów takiej sytuacji badacze doszukują się w staraniach bogatszych warstw społecznych, które dbały o wysoki status gry, oraz w zabiegach uboższych popularyzatorów, promujących ten sport i naśladujących elitarne grono. Kaufman i Patterson dochodzą do wniosku, że oba te podejścia miały wpływ (wzmacniający lub osłabiający) dyfuzję krykieta w różnych kulturach. W badaniach jako przykład dyfuzji kulturowej zalicza się migrację. Problem ten nabiera szczególnego znaczenia w kontekście obejmującego cały świat kryzysu związanego z przemieszczaniem się ludności motywowanej względami ekonomicznymi (wyższa jakość życia) lub humanitarnymi (zagrożenie, wojna). Krystyna Romaniszyn zauważa, że dyfuzja kultur i ich elementów wskutek migracji, jest procesem rozłożonym w czasie. Autorka stwierdza że „początkowo migracja prowadzi do powstawania peryferyjnych kultur w kraju przyjmującym, opierających się jego kulturze centrum. Z czasem ekspansja centrów na peryferia powoduje modyfikacje˛ treści tradycyjnych poglądów i − z biegiem czasu – modyfikacje z peryferii trafiają z kolei do centrum”24. Romaniszyn opisując fenomen migracji zauważa, że istnieją czynniki które mogą przyspieszyć lub spowolnić dyfuzję kulturową. Zauważa także rosnącą niechęć, ksenofobię i rasizm, które pojawiają się w społeczeństwach niechętnych imigrantom. 24 K. Romaniszyn, Kulturowe implikacje współczesnych migracji międzynarodowych. Zarys problematyki na przykładzie Polski, "Studia Polonijne", t. 20, Lublin, 1999, s. 106. 25 M. Banaś, Transgresja i dyfuzja, czyli o tym dlaczego nauki humanistyczne sięgają do terminologii nauk przyrodniczych, „Kultura-Historia-Globalizacja”, nr 14, 2013, s. 13. Przytoczone wyżej definicje wskazują na semantyczną różnorodność i szeroką adaptowalność terminu „dyfuzja”, co może rodzić kontrowersje w środowisku naukowym. Monika Banaś rozważa problem zapożyczeń językowych dokonywanych przez nauki humanistyczne, skupiając się na słowie „dyfuzja”. Autorka stwierdza, że „jednym z kluczowych pytań, jakie rodzi się w wyniku obserwacji zjawiska, jest pytanie o wiarygodność obrazu rzeczywistości odwzorowywanej przy pomocy narzędzi zastępczych, w tym przypadku wtórnej terminologii, powołanej do wyjaśniania zjawisk z obszaru nauk ścisłych i nie zawsze z pełnym namysłem adoptowanej przez humanistykę”25. W swoich konkluzjach Banaś dochodzi do wniosku, że przynajmniej niektóre zapożyczenia wydają się być uzasadnione, ze względu na podobieństwo opisywanych zjawisk. Każda z przedstawionych wcześniej definicji, zwraca uwagę na różne aspekty omawianego terminu. Posługiwanie się aparatami pojęciowymi charakterystycznymi dla odmiennych dziedzin nauki, daje asumpt do dalszych rozważań, uwzględniających przede wszystkim medioznawczy opis zjawiska, ze szczególnym uwzględnieniem Internetu jako „środowiska” (medium), w którym dochodzi do rozprzestrzeniania się treści. Powyższe względy uzasadniają zaproponowanie operacjonalizacji definicji dyfuzji, która z powodu złożoności semantycznej nie będzie jednolita, ale zostanie skategoryzowana w sposób, umożliwiający wyszczególnienie jej najważniejszych cech. Zakładam, że taki zabieg pomoże logicznie i kompleksowo przedstawić wielowymiarowość omawianego zjawiska, które jest szczególnym rodzajem komunikacji. Proponuję, aby przy opisie dyfuzji w Internecie, wyszczególnić trzy kluczowe obszary badawcze. Pierwszym będzie sama treść (aspekt przedmiotowy) i próba odpowiedzi na pytanie, jaki jej rodzaj rozprzestrzenia się najszybciej w sieci i wywołuje pożądane (bądź nie) reakcje użytkowników. Drugi aspekt to ujęcie procesualne, skupiające się na kanałach komunikacji zapewniających rozprzestrzenianie treści (badania nad technicznymi możliwościami dyfuzji). Trzeci obszar badawczy skupia się na użytkowniku, jako prosumencie - jednoczesnym odbiorcy i nadawcy treści (ujęcie podmiotowe)26. Operacjonalizacja definicji dyfuzji powinna określać trzy podstawowe wymiary: 26 W dysertacji skupiam się na dyfuzji procesowej i podmiotowej, co wynika z hipotez przedstawionych we wstępie oraz założonej metodologii. Warto jednak zauważyć, że przedmiotowe ujęcie dyfuzji nie zostało kompleksowo opisane w nauce, co może stanowić punkt wyjścia do dalszych badań nad opisywanym zjawiskiem. 27 A. Kiklewicz, Dyfuzja…, op.cit. s. 14. 28 K. Romaniszyn, Kulturowe…, op.cit., s. 108. 29 A. Guille, H. Hacid, C. Favre, D.A. Zighed, Information Diffusion in Online Social Networks: a Survey, ”Sigmond Record”, nr 42/2, 2013, s. 1. 30 Mechanizmy te omawiam w Rozdziale III. 31 S. Kaiser, Interpretive…, op. cit. s. 79. 32 Trzy zaproponowane rodzaje dyfuzji wydają się być skorelowane z podejściami badawczymi służącymi analityce Internetu, opisanymi w Rozdziale V. a) przedmiotowy, który skupia się na cechach treści rozprzestrzeniającej się w sieci, badaniami nad mieszaniem się współczesnych form przekazów medialnych (np. interaktywna infografika, reportaż multimedialny), wzajemnym przenikaniu znaczeń językowych, kodów kulturowych, gatunków dziennikarskich, wykorzystywaniem i adaptowaniem przez media różnego rodzaju form komunikacji tekstowej, werbalnej i wizualnej27. Szczególnym przykładem ujęcia przedmiotowego jest dyfuzja społeczna i kulturowa, czyli przenikanie się różnych ideologii, kultur i ich wytworów, nauki, języka, techniki między ludźmi, grupami ludzi (także w ujęciu geograficznym) i społeczeństwami, które prowadzi do upowszechnienia informacji, wiedzy i kultury28 b) procesualny, rozumiany jako sposób lub konkretna procedura (procedury), dzięki której pojawiające się w przestrzeni Internetu przekazy, rozchodzą się szybciej wśród jednostek, grup lub społeczeństw29. Zakładający możliwość wpływania na skuteczność dróg dyfuzji treści na przykład poprzez wykorzystanie algorytmów, działania wspierające wzrost zaangażowania w mediach społecznościowych, lub optymalizację treści na potrzeby wyszukiwarek30) c) podmiotowy, którego głównym celem jest zrozumienie roli użytkowników (prosumentów) w procesach dyfuzji, w tym motywów podejmowanych przez nich decyzji, wpływających na możliwości rozprzestrzeniania treści wśród grup i jednostek, z których każda charakteryzuje się szczególnymi cechami, uprawdopodabniającymi (lub nie) dalszą dyfuzję31,32. Szczególnym przykładem powyższego ujęcia będzie dyfuzja osmotyczna, czyli spowolnienie, lub przyspieszenie rozprzestrzeniania się treści spowodowane wykorzystaniem technologii pośredniczących (np. urządzenia mobilne), lub udziałem innych czynników zewnętrznych (np. liderów opinii, kodów kulturowych, języka). Każda z przedstawionych powyżej definicji dyfuzji skupia się kilku odrębnych problemach badawczych, których zakres przedstawia Tabela 1. Tabela 1. Zakres analizy problemów badawczych w zaproponowanych rodzajach dyfuzji. Uwzględnienie roli nadawcy Uwzględnienie roli odbiorcy Uwzględn Uwzględnienie roli przekaźnika Schemat rozprzestrzeniania się Przewidywanie 1. Dyfuzja przedmiotowa X 2. Dyfuzja społeczna/kulturowa X X X 3. Dyfuzja procesualna X X X X 4. Dyfuzja matematyczna X X X 5. Dyfuzja osmotyczna X X X 6. Dyfuzja podmiotowa X X X Źródło: opracowanie własne. Powyższe opracowanie wskazuje, że aby w pełni poznać wielowymiarowość omawianego problemu należy przeprowadzić możliwie szerokie badania, łączące w sobie różne podejścia metodologiczne. Dla przykładu ujęcie przedmiotowe w badaniach nad dyfuzją w Internecie pomija rolę nadawcy i odbiorcy, skupiając się głównie na treści przekazu. Z kolei ujęcie procesowe i matematyczne uwzględniają już rolę nadawców i odbiorców, ale pomijają treść. Implikuje to konieczność przeprowadzenia badań interdyscyplinarnych, przy wykorzystaniu różnych metodologii znanych w naukach społecznych, kulturoznawczych i medialnych oraz algorytmów do analizy big data. Takie podejście zapewni kompleksowość i wiarygodność badań nad złożonym problemem, jakim jest dyfuzja treści w sieci. 1.2. Treść jako przedmiot dyfuzji w kontekście big data i humanistyki cyfrowej Kolejnym krokiem w badaniach nad dyfuzją zachodzącą w środowisku Internetu jest operacjonalizacja definicji „treści”, jako podmiotu, który może rozprzestrzeniać się w sieci. Brak skonkretyzowanej odpowiedzi na pytanie jak należy rozumieć treść, mógłby w dalszej części pracy zrodzić kontrowersje semantyczne. Sam termin „treść” jest wieloznaczny i nieostry. Według „Słownika języka polskiego PWN” „treścią” nazywamy: „to, co jest zawarte w czyjejś wypowiedzi; to, co stanowi istotę, sens czegoś”33. Słowo „treść” jest synonimem słowa „przekaz”, które również wymaga dookreślenia. W definicji słownikowej przekaz określany jest jako: „1. tekst pisany, dzieło sztuki itp., będące źródłem wiedzy o przeszłości; też: taka informacja zawarta w czymś lub przekazywana ustnie z pokolenia na pokolenie; 2. przekazanie czegoś; 3. środki masowego przekazu - prasa, radio i telewizja”34. Powyższe definicje implikują związek obu słów z informacją, komunikacją oraz mediami. 33 L. Drabik, E. Sobol, Słownik…, op. cit. 34 Ibidem. 35 Ibidem. 36 M. Zeleny, Management Support Systems: Towards Integrated Knowledge Management, „Human Systems Management”, 7(1987)1, 1987, s. 65-70. 37 M. Grabowski, A. Zając, Dane, informacje wiedza – próba definicji, „Zeszyty Naukowe Uniwersytetu Ekonomicznego w Krakowie”, nr 798, 2009, s. 103-104. Według „Słownika języka polskiego” informacja zdefiniowana jest jako „to, co powiedziano lub napisano o kimś lub o czymś, także zakomunikowanie czegoś”35. Definicja ta nie oddaje jednak złożoności problemu, który od wielu lat dyskutowany jest w świecie nauki. Milan Zeleny w 1987 roku zaproponował rozróżnienie na dane (data), informację (information), wiedzę (knowledge) i mądrość (wisdom)36, w skrócie DIKW. Rozróżnienie to funkcjonuje w nauce do dziś, jednak wciąż budzi wątpliwości interpretacyjne. Mariusz Grabowski i Agnieszka Zając wskazują, że „pojęcia danych, informacji i wiedzy (w skład których wchodzi również treść) należą do terminów trudno definiowalnych z uwagi na swój pierwotny charakter i używanie ich zamiennie w języku potocznym”37. Podstawowy diagram przedstawiający hierarchię między danymi, informacją, wiedzą i mądrością przedstawiono na Ilustracji 1. Ilustracja 1. Hierarchia DIKW. Źródło: opracowanie własne za: M. Zeleny, „Management Support Systems: Towards Integrated Knowledge Management”. Powyższa ilustracja pokazuje, że w ujęciu liczbowym największy zbiór stanowią dane. W środowisku naukowym panuje również powszechna zgoda co do faktu, że w ostatnich latach doszło do kolosalnego przyrostu różnego rodzaju danych w sferze społeczno-ekonomicznej ze względu na upowszechnienie rozwiązań informatycznych w wielu dziedzinach życia38. Dane dotyczące zachowania i wyborów użytkowników sieci są zbierane i gromadzone zarówno przez wielkie korporacje internetowe jak Google, czy Facebook, jak i mniejsze firmy funkcjonujące na rynkach lokalnych. Stosunkowo mniejszy zbiór stanowią informacje, które w najprostszym ujęciu można zdefiniować jako przetworzone dane. W diagramie bezpośrednio nad informacjami znajduje się wiedza, zaś wierzchołek piramidy DIKW stanowi mądrość. Ulokowanie „treści” w tej hierarchii, wydaje się niezbędne dla dalszego opisu procesów składających się na dyfuzję, co implikuje konieczność operacjonalizacji pojęć takich jak dane, informacja i wiedza. 38 J. Wielki, The social and ethical challenges connected with the Big Data phenomenon, „Polish Journal of Management Studies”, vol. 11/2, 2015, s. 193. Koncepcję danych w ujęciu technologicznym i matematycznym przedstawił Claude E. Shannon już w 1948 roku. Autor utożsamił informację z transmisją danych i wskazał na szumy występujące w komunikacji39. W modelu Shannona występuje kilka faz. Nadawca przekazuje treść do nadajnika, ten z kolei przesyła sygnał do odbiornika, który dekoduje treść i dostarcza ją finalnie do odbiorcy. Na etapie transmisji między nadajnikiem a odbiornikiem mogą wystąpić zakłócenia (tzw. szumy komunikacyjne). W istocie model Shannona wskazuje więc na przepływ (dyfuzję) danych między urządzeniami, mniej skupiając się na samej informacji, jej kodowaniu i dekodowaniu. W ujęciu autora przekaz to zbiór danych, podlegających przesyłowi od nadawcy do odbiorcy, za pośrednictwem urządzeń technicznych. Model transmisji sygnału opracowany przez Shannona przedstawia Ilustracja 2. 39 C.E. Shannon, A mathematical theory of communication, „Bell System Technical Journal”, nr 27, 1948, s. 623-656 [dostępny online:] http://cm.belllabs.com/cm/ms/what/shannonday/shannon1948, [dostęp: 2.04.19r.]. 40 T. Goban-Klas, Media i komunikowanie masowe. Teorie i analizy prasy, radia, telewizji i Internetu, Wydawnictwo Naukowe PWN, Warszawa 2004, s. 57. 41 E. Maigret, Socjologia komunikacji i mediów, Wyd. Oficyna Naukowa, Warszawa 2012, s. 125. Ilustracja 2. Model transmisji sygnału Claude’a E. Shannona. Źródło: opracowanie własne za: C. E. Shannon: „A mathematical theory of communication”. Tomasz Goban-Klas zwraca uwagę, że schemat przedstawiony przez Shannona okazał się wyjątkowo wpływowy w środowisku naukowym i do dzisiaj „dla wielu autorów pozostaje wzorcowym modelem” komunikowania40. Eric Maigret twierdzi, że „model Shannona stał się niezbędny do rozwoju informatyki, fizyki, badań nad dźwiękiem, biologii, nauk o automatach, bo wszystkie te dziedziny mierzą zjawiska losowe, łączące nadawcę z odbiorcą”41. Schemat przedstawiony przez Shannona, stanowi dowód, że dane ulegają procesom dyfuzji, przy wykorzystaniu zapośredniczenia technologicznego. Koncepcja ta wpisuje się w zakres definicji dyfuzji procesualnej. Próbę zdefiniowania danych warto rozpocząć od słów, których autorem jest Tomasz Goban-Klas. Krakowski medioznawca zauważa, że „kody komunikowania w coraz większym stopniu opierają się na składnikach kodu cyfrowego”42. Determinuje to sytuację, w której procesy dyfuzji coraz częściej opierają się o dane i algorytmy, będące tymże „kodem cyfrowym”. Na serwerach „w chmurze danych” znajdują się różne treści (zasoby), jak teksty, obrazy, nagrania audio i wideo, zdjęcia, ale również utrwalane przez nadawców wzorce zachowania użytkowników sieci służące dalszej dyfuzji. Transmisyjne ujęcie problemu proponuje Richard Maddison, który definiuje dane jako „znaki lub symbole, w szczególności w transmisji w systemach komunikacji i w przetwarzaniu w systemach komputerowych”43. 42 T. Goban-Klas, Komunikowanie i media, red. Z. Bauer, E. Chudziński, „Dziennikarstwo i świat Mediów”, Wyd. Universitas, Kraków 2008, s. 33. 43 R. N. Maddison (red.), Information Systems Development for Managers, wyd. Paradigm, Londyn 1989 s. 168. 44 J.O. Hicks, Management… op. cit. s. 108. 45 W. Gogołek, Komunikacja sieciowa. Uwarunkowania, kategorie, paradoksy, Oficyna Wydawnicza ASPRA-JR, Warszawa 2010, s. 256. 46 D. Laney, 3D Data Management: Controlling Data Volume, Velocity, and Variety, „Applocation Delivery Strategies”, Meta Group, [dostępny online:] https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf [dostęp: 22.11.19r.]. W środowisku akademickim panuje niemalże powszechna zgoda co do tego, że dane należy definiować, jako zbiór prostych i nieprzetworzonych faktów, zgromadzonych dzięki obserwacjom i zapisom. James O. Hicks dodaje do powyższej definicji, że dane muszą mieć reprezentację materialną pozwalająca na ich przetwarzanie przez ludzi lub komputery44. Współcześnie, dzięki rozwojowi technologicznemu i upowszechnieniu rozwiązań teleinformatycznych, mamy do czynienia z ogromnym przyrostem danych. Trudno nie zgodzić się ze słowami Włodzimierza Gogołka, który stwierdza, że „świadome, bezpośrednie korzystanie ze wszystkich cyfrowych zasobów informacyjnych świata przekracza fizyczne i intelektualne możliwości każdego pojedynczego człowieka45. Z przytoczonych względów w nauce i praktyce społecznej zaczęto stosować określenie „big data”, odnosząc je do zbiorów danych, których rozmiar przekracza możliwości pozyskiwania, przechowywania i analizy oferowane przez typowe narzędzia wykorzystywane wcześniej w programach analitycznych. Jedną najbardziej znanych definicji big data zaprezentował Doug Laney, który opisuje zjawisko skupiając się na trzech wymiarach: Volume, Velocity i Variety („3xV”)46. Volume oznacza objętość czy też rozmiar danych, które liczone są w niewyobrażalnej dla przeciętnego człowieka skali petabajtów (biliard - 1015 bajtów), a nawet zettabajtów (1021 bajtów) czy jottabajtów (1024 bajtów). Dla przykładu w 2012 roku Facebook ogłosił, że przechowuje i zbiera na swoich serwerach rocznie 180 petabajtów danych47. Velocity oznacza prędkość narastania danych, którą Facebook w 2012 roku szacował na pół petabajta dziennie. Variety oznaczająca różnorodność, bowiem dane to nie tylko ustrukturalizowane tabele, ale też nagrania, fotografie, teksty. Jak zauważa Piotr Idzik w nauce do definicji „3xV” próbowano dodać również kolejne elementy, takie jak Veracity oznaczającą wiarygodność danych pochodzących z big data, Value czyli wartość jaką przedstawiają ogromne zbiory danych dla biznesu i nauki, czy Virtual oznaczającą wirtualność, ponieważ wielkie zbiory danych nie mogłaby zaistnieć w takiej skali bez Internetu48. 47 S. Sharwood, Facebook warehousing 180 petabytes of data a year, [dostępny online:] https://www. theregister.co.uk/2012/11/09/facebook_open_sources_corona/ [dostęp: 22.11.19r.] 48 P. Idzik, Analiza Big Data. Badania niereaktywne w erze Internetu 2.0, A. Radomski, R. Bomba (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 155. 49 D. Brooks, What data can’t do, „New York Times”, 18.02.13r.. [dostępny online:] http://www.nytimes.com/2013/02/19/opinion/brooks-what-data-cant-do.html, [dostęp: 4.02.19r.]. 50 M. Loukides, What is Data science?, „O’Reilly Radar”, 2.06.10r., [dostępny online:] https://www.oreilly.com/ideas/what-is-data-science [dostęp: 4.07.19r.]. 51 P. Idzik, Analiza…, op. cit. s. 159. 52 R.V. Kozinets, Netnography. Doing Ethnographic Research Online, Wyd. Sage Publications, Londyn 2010, s. 7. 53 E. Dziwak, Wielkie bazy danych jako nowe źródła informacji. Big data przyszłością dziennikarstwa?, „Acta Humana” nr 9/2018, s. 186. O możliwościach, które daje analiza big data, pisali zarówno naukowcy jak i publicyści. David Brooks wylicza możliwe zastosowania informacji uzyskanych dzięki analizie wielkich zbiorów danych w marketingu, naukach społecznych, ekonomii, zarządzaniu, polityce i medycynie49. Z kolei Mike Loukides dochodzi do wniosku, że mamy do czynienia z nową gałęzią nauki, którą nazywa data science50 (z j. ang.: nauka o danych). Teoretycznych i metodologicznych podstaw dla data science (w odniesieniu do badań nad mediami społecznościowymi) dostarczać mają m.in. interakcjonizm symboliczny oraz klasyczna metoda badań autobiograficznych51. Zastosowanie podejścia etnograficznego do badań wielkich zbiorów danych, gromadzonych głównie w mediach społecznościowych, Robert Kozinets nazwał netnografią52. Rozwój big data można skorelować z szacunkami analityków, którzy przewidują, że w 2020 roku liczba urządzeń posiadających dostęp do Internetu, może sięgnąć od 26 do 50 miliardów53. Każde z takich urządzeń generuje dane, które mogą być (w wielu dziedzinach są) przetwarzane i wykorzystywane. Mając to na względzie, postulat sformułowania teoretycznych i metodologicznych podstaw dla data science jako nowej dziedziny nauki, wydaje się słuszny, a nawet konieczny. Koncentrując się na danych generowanych dzięki wykorzystaniu Internetu, można sklasyfikować podstawowe obszary ich pozyskiwania. Z tej perspektywy elementami wchodzącymi w skład big data będą m.in. dane publiczne, dane przedsiębiorstw, dane transakcyjne, dane sensoryczne, czy dane pochodzące z mediów społecznościowych54. Uszczegóławiając powyższe stwierdzenia, można zaproponować typologię danych gromadzonych współcześnie w sieci, wyróżniając ich cztery podstawowe kategorie. 54 P. Idzik, Analiza…, op. cit. s. 155. 55Celowo pomijam w tym miejscu kwestię dobrowolności dzielenia się danymi w sieci. Problem jest wielowymiarowy, wpływ na decyzje w tym zakresie mogą mieć m.in. osobiste przekonania użytkowników (psychologia), świadomość (lub jej brak) dotycząca sposobu wykorzystywania, przechowywania i udostępniania danych, wygoda korzystania z usług za pośrednictwem sieci, presja społeczna (socjologia), czy kwestie formalne (prawo w niektórych przypadkach zobowiązuje do ujawnienia danych). Kwestia dobrowolności w dzieleniu się danymi, z pewnością może być rozwijana w dalszych badaniach naukowych, jednak jej opis nie należy do zakresu mojej dysertacji. 1. Dane osobiste udostępniane przez osoby fizyczne (każdego użytkownika), osoby prawne (stowarzyszenia, fundacje, instytucje publiczne, firmy), lub grupy nieformalne (społeczności internetowe) stanowią najbardziej wrażliwy rodzaj zasobów. W ich skład wchodzi m.in. pełen zakres informacji osobistych, w tym danych personalnych, numerów PESEL, adresów zamieszkania, numerów telefonów, adresów poczty e-mail, danych medycznych, podatkowych, sądowych, bankowych itp. Powyższe zasoby są gromadzone i przetwarzane przez organizacje takie jak instytucje publiczne, zakłady pracy, szpitale, szkoły, uczelnie wyższe, ale też wyspecjalizowane strony internetowe, czy portale społecznościowe. Teoretycznie najbardziej wrażliwe dane powinny być przechowywane na chronionych serwerach, a każdy ich właściciel powinien mieć prawo wglądu, zmiany a nawet żądania ich usunięcia, co zapewnia m.in. dyrektywa dotycząca ochrony danych wprowadzona przez Unię Europejską. W praktyce każda instytucja zbierająca podobne dane, w przypadku podjęcia z nią współpracy wymaga podpisania specjalnych oświadczeń, w których wyraża się zgodę na gromadzenie i przetwarzanie powyższych danych55. 2. Dane dotyczące zachowania użytkowników, czyli wszelkiego rodzaju dane zbierane m.in. za pośrednictwem plików cookies zapisywanych przez przeglądarki internetowe. Dane te z perspektywy odbiorcy obejmują jego wybory, wyszukiwania, odwiedzane witryny internetowe, czas spędzony na stronach i w poszczególnych artykułach, logowania, liczbę wysyłanych i odbieranych wiadomości, liczbę generowanych postów i wpisów, dane udostępnione dobrowolnie dostawcom usług w sieci, zawierające różny zestaw danych osobistych takich jak płeć, wiek, adres e-mail, zainteresowania, pobierane aplikacje. W skład tej kategorii danych zaliczyć można również sposób i częstotliwość wykorzystywania aplikacji i programów połączonych z siecią oraz wszelkie inne możliwe przejawy aktywności i interakcji z aplikacjami wykorzystującymi Internet w procesie komunikacji. Przykładem zastosowania podobnych danych w praktyce jest spersonalizowana reklama. Firma Google na swoich stronach tłumaczy, że wpływ na wyświetlanie konkretnej reklamy mają: „twoje dane takie jak informacje zapisane na Twoim koncie Google na przykład twój przedział wiekowy i płeć, twoja ogólna lokalizacja, twoja aktywność jak aktualnie wyszukiwane hasło, wcześniejsza aktywność w wyszukiwarce, Twoja aktywność po zalogowaniu się w usługach Google, Twoje poprzednie interakcje z reklamami, typy odwiedzanych stron, rodzaje aktywności w aplikacjach mobilnych na urządzeniu, Twoja aktywność na innym urządzeniu, inne informacje jak pora dnia, czy informacje przekazane reklamodawcy, jak na przykład adres e-mail podany przy zapisywaniu się do newslettera”56. 3. Dane generowane przez urządzenia – powstają i dyfundują autonomicznie, dzięki zastosowaniu algorytmów (programów), łączących z Internetem rzeczy materialne, wykorzystywane przez ludzi w codziennym życiu. Współcześnie jesteśmy świadkami rozwoju podobnych technologii, do których należą smartfony, tablety, smartwatche, telewizory, urządzenia gospodarstwa domowego, inteligentne systemy zarządzania domem, czy systemy monitoringu. John Battelle stwierdza, że w najbliższej przyszłości sieć www rozprzestrzeni się w zasadzie na każde urządzenie, a „wyszukiwanie” zostanie wpisane w algorytmy znajdujące się w tych rzeczach57. Przykładem wykorzystania danych przesyłanych przez urządzenia a następnie przetwarzanych przez zaawansowane algorytmy, jest Google Maps. Aplikacja zbiera dane o szybkości poruszania się na drogach 56 Dlaczego widzisz daną reklamę? Pomoc Google, [dostępny online:] https://support.google.com/acco unts/answer/1634057 [dostęp 21.11.19r.]. 57 J. Batelle, Szukaj. Jak Google i konkurencja wywołali rewolucje biznesową i kulturową, Wydawnictwo Naukowe PWN, Warszawa 2006, s.187. od wszystkich używających jej kierowców, następnie przetwarza je i wyświetla odbiorcom informacje o natężeniu ruchu i korkach występujących na trasie58. 4. Dane stron internetowych w których skład wchodzą m.in. zawartość witryn www, szybkość serwerów, szybkość podawania strony na przeglądarkach, statystyki dotyczące liczby, tematyki i rodzajów zamieszczanych treści, liczby komentarzy, postów i reakcji. Specyficznym rodzajem danych będących w posiadaniu mediów społecznościowych, są statystyki powiązań między użytkownikami i profilami, które mogą wskazywać na liderów opinii, będących ważnym elementem procesu dyfuzji59. 58 K. Kozłowski, W jaki sposób Google mierzy ruch na polskich drogach, [dostępny online:] https://anty web.pl/w-jaki-sposob-google-mierzy-ruch-na-polskich-drogach [dostęp: 29.11.19r.]. 59 B. Mazurkiewicz, Rola liderów opinii w komunikacji nieformalnej, „Marketing i rynek” nr 11/2014, s. 34. 60 N. Richards, J. King, Big data ethics, „Wake Forest L. Rev.”, nr 393/2014, 2014, s. 394. 61 M. Scott, L. Cerulus, Europa znów podbija świat - ustala nowe zasady prywatności w sieci dla wszystkich, „Politico” [dostępny online:] https://wiadomosci.onet.pl/swiat/europa-znow-podbija-swiat/rcm6r9c [dostęp: 4.09.19r.]. 62 Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie ochronie danych). Dane o użytkownikach, gromadzone przez wielkie korporacje oraz instytucje rządowe, otwierają drogę do rozwoju data science, formułowania nowych hipotez badawczych i analizowania obszarów wcześniej niedostępnych dla naukowców. Optymizm wypływający z powyższych konstatacji studzi fakt, że przetwarzanie i wykorzystywanie informacji uzyskanych dzięki big data bez rzeczywistej wiedzy, świadomości i zgody odbiorców, budzi liczne wątpliwości natury etycznej60. Z tego powodu podejmowane są próby wprowadzenia ściślejszych regulacji dotyczących pozyskiwania, zarządzania i obrotu danymi. Zadania podjęła się m.in. Unia Europejska, która chce całkowitego zakazu przetwarzania danych bez świadomej zgody ich właściciela61. W 2018 roku w życie weszło ogólne rozporządzenie Unii Europejskiej, dotyczące ochrony danych osobowych (RODO). Wprowadza ono m.in. łatwiejszy dostęp do edycji danych, w tym prawo do ich przenoszenia oraz usuwania, prawo do bycia poinformowanym w razie ataku hakerskiego, który mógł spowodować wyciek lub kradzież danych, czy obowiązek usprawnienia technologii umożliwiających pseudonimizację oraz szyfrowanie62. Rozwój Internetu oraz powiązany z nim przyrost danych jest różnie oceniany przez środowisko naukowe. Niektórzy badacze wprost postulują zmianę paradygmatu badań społecznych i jak najszersze wykorzystywanie big data w nauce. W tym kontekście Karol Piekarski zwraca uwagę, że „dyskusja o zmianach w kulturze podyktowanych nowymi technologiami jest zbyt doraźna i cierpi na brak szerszej perspektywy, uwzględniającej doświadczenia z przeszłości oraz interesy różnych grup społecznych63. Autor w swoich rozważaniach podkreśla, że zachodząca we współczesnym świecie rewolucja kulturowa spowodowana rozwojem Internetu jest bardzo dynamiczna. W jego ocenie stanowi to główną różnicę między teraźniejszością, a poprzednimi przełomami zmieniającymi paradygmat komunikacji, takimi jak na przykład wynalezienie pisma, czy druku. Oponenci zbyt szybkich zmian w paradygmacie badań nad mediami zauważają, że opieranie metodologii jedynie na wielkich zbiorach danych może prowadzić do falsyfikacji wniosków, ze względu na autokreację ludzi w sieci, która nie oddaje rzeczywistości w sposób obiektywny64. Zwolennicy szerokiego wykorzystywania big data w nauce kontrargumentują, że nie deprecjonuje to wyników samych badań, ale zmusza do zachowania szczególnej czujności na etapie analizy danych oraz wysuwania na ich podstawie wniosków65. 63 K. Piekarski, Kultura danych. Algorytmy wzmacniające uwagę, Wydawnictwo Naukowe Katedra, Gdańsk 2017, s. 8. 64 N. Ellison, R. Heino, J. Gibbs, Managing Impressions Online: Self-Presentation Processes in the Online Dating Environment, „Journal od Computer-Mediated Communication” vol. 11/2, 2006, s. 417. 65 P. Idzik, Analiza…, op. cit. s. 161. 66 Data-mining rozumiem jako gałąź informatyki, zajmującą się eksploracją wielkich zbiorów danych w sposób zautomatyzowany, w celu odkrycia występujących w nich statystycznych zależności i reguł. W debacie nad wykorzystaniem big data pojawiają się też zarzuty, dotyczące braku kompetencji humanistów, którzy chcą analizować ogromne zbiory danych. Oczywiście należy zgodzić się ze stwierdzeniem, że matematycy i informatycy posiadają większą wiedzę w zakresie tworzenia algorytmów, jednak powstające współcześnie narzędzia, pozwalają na korzystanie z zasobów big data w sposób stosunkowo prosty, przy wykorzystaniu istniejących programów i aplikacji internetowych. Kompetencje posiadane przez humanistów, pozwalają na pogłębioną interpretację wyników podobnych analiz, mogących uzupełnić zakładaną w badaniach metodologię. Powinno się raczej mówić o przyjaznej współpracy ekspertów z zakresu data-mining66 oraz humanistów, potrafiących formułować nieoczywiste problemy i hipotezy badawcze w związku z możliwościami jakie daje big data. Przedstawiciele nauk ścisłych wydają się być coraz częściej zainteresowani takim rodzajem współpracy67. 67 M. Szpunar, Humanistyka cyfrowa a socjologia cyfrowa. Nowy paradygmat badań naukowych, „Zarządzanie w kulturze” nr 17, z. 4, 2016, s. 361. 68 D. Jemielniak Socjologia Internetu, Wydawnictwo Naukowe Scholar, Warszawa 2019, s. 52. 69 M. Grodecka, Facebook, Google, Apple i Microsoft przekazują polskim służbom coraz więcej danych, [dostępny online:] https://www.spidersweb.pl/2018/12/facebook-dane-przekazywane-sluzbom.html [dostęp: 21.11.19r.]. 70 L. Manovich, Trending: The Promises and the Challenges of Big Social Data, s. 5, [dostępny online:] http://manovich.net/content/04-projects/068-trending-the-promises-and-the-challenges-of-big-social-data/64-article-2011.pdf [dostęp: 21.11.19r.]. 71 M. Brosz, G. Bryda, P. Siuda, Big data i CAQDAS a procedury badawcze w polu socjologii jakościowej, „Przegląd socjologii jakościowej”, t. 13, nr 2, s. 17. 72 R. Maddison, Information…, op.cit. s. 174-175. Środowisko naukowe dostrzega również problem utrudniania dostępu do big data przez duże korporacje gromadzące dane68, w szczególności Google i Facebooka. Nieprzejrzysta polityka firm w tym zakresie była wielokrotnie krytykowana także przez władze i media. Sytuacji nie zmienia fakt, że wprowadzane regulacje prawne zobowiązują korporacje do dzielenia się niektórymi gromadzonymi danymi, szczególnie ze służbami państwowymi. Choć liczba podobnych przypadków narasta, to wciąż stanowią one margines, zważywszy na rozwój big data69. W powyższym kontekście, badania w oparciu o wielkie zbiory danych bywają też krytykowane, jako dostępne tylko dla szczególnego kręgu „wybranych” przez korporacje naukowców. Z taką postawą nie zgadza się m.in. Lev Manovich, który odpowiadając na powyższe zarzuty stwierdza, że współcześnie istnieją różne aplikacje, ułatwiające gromadzenie i analizę danych, dostępne nie tylko dla naukowców, ale dla praktycznie każdej osoby posiadającej komputer z dostępem do Internetu70. Podsumowując tę część rozważań warto podkreślić, że dane ulegają procesom dyfuzji w Internecie, wpływając na wyświetlane odbiorcom treści i podejmowane przez nich decyzje. Analizy przy wykorzystaniu big data, umożliwiają dostarczenie użytkownikom trafniej spersonalizowanych zasobów sieci, niż prowadzone wcześniej badania statystyczne. W istocie data mining eliminuje problem, jakim w statystyce był dobór próby autentycznie losowej, analizując próbę pełną71. Z tej perspektywy należy uznać dane za jedną ze składowych definicji „treści”. Z danych rodzi się informacja. Zdaniem Richarda Maddisona proces przetworzenia danych, prowadzących do powstania informacji, musi być użyteczny z punktu widzenia finalnego odbiorcy72. Mariusz Grabowski i Agnieszka Zając wyliczają cechy takiej użyteczności (jakości), wskazując na to, że informacja powinna być celowa, rzetelna, aktualna, kompletna, wszechstronna, dokładna, powstała przy wykorzystaniu odpowiednich nakładów finansowych73. W tym ujęciu rolą informacji będzie zmniejszanie niepewności w przypadku podejmowania decyzji. Na inny aspekt informacji zwrócił uwagę John Lyons, który zdefiniował ją jako „treść o określonym znaczeniu o czymś, dla kogoś i ze względu na coś, wyrażana za pomocą znaków językowych lub/i pozajęzykowych”74. Taka optyka sprawia, że celem informacji staje się przede wszystkim prezentacja faktów. Jeśli fakty te są znane odbiorcy mówimy o wiadomości, jeśli zaś są nowe, mamy do czynienia z informacją. 73 M. Grabowski, Dane…, op.cit. s. 109-110. 74 J. Lyons, Semantyka, PWN, Warszawa 1984, s. 60. 75 T. Gospodarek, Elastyczność zasobu informacyjnego, red. R. Krupski, „Elastyczność organizacji”, Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu, Wrocław, 2008, s. 127. 76 B. Langefors, Theoretical Analysis of Information Systems, „Studentlitteratur”, Sweden And Auerbach Publishers Inc., Philadelphia, 1973. Informację z perspektywy nauk ekonomicznych analizuje Tadeusz Gospodarek. Zdaniem autora „informacja to takie przetwarzanie i organizacja danych, która powiększa poziom wiedzy u odbiorcy, lub wywołuje określone działanie”75. Liczni naukowcy podkreślają znaczenie informacji, jako jednego z kluczowych czynników w procesie podejmowania decyzji, szczególnie tych o znaczeniu ekonomicznym. Koncepcję, która akcentuje aktywną rolę odbiorcy w kreowaniu informacji przedstawił Börje Langefors. Autor zaproponował równanie infologiczne służące do opisu powstawania informacji76: I = i(D,S,t) gdzie: I – informacja; i – proces interpretacji; D – dane; S – wcześniejsza wiedza; t – czas. Równanie Langeforsa zwraca uwagę na fakt, że z tych samych danych ludzie mogą wyciągać inną informację, co zależne jest od czynników takich jak czas, zakres wiedzy i doświadczenia. Dla pełnego zdefiniowania informacji konieczne wydaje się sięgnięcie do klasycznych teorii z nauk o komunikowaniu. Roman Jakobson wylicza sześć funkcji informacji: emotywną (pokazuje emocje i opinie nadawcy), poznawczą (odsyłającą do przedmiotów i zjawisk występujących w świecie materialnym), poetycką (skupiającą się na treści samego komunikatu), fatyczną (służy tylko do podtrzymania rozmowy), metajęzykową (skupia się na języku i jego znaczeniu) oraz konatywną (mającą wywrzeć wpływ na odbiorcy komunikatu)77. 77 R. Jakobson, W poszukiwaniu istoty języka. Wybór pism, tłum. M. Mayenowa, PIW, Warszawa 1989, s. 43. 78 B. Berelson, G.A. Steiner, Human Behavior, Wyd. Harcourt, Brace and World, Nowy Jork 1964, s. 254. 79 A. Antoszewski, R. Herbut, Słownik politologii, Wydawnictwo Alta2, Wrocław 1995, s. 150. 80 M. Wendland, Działanie komunikacyjne a przekazywanie informacji, „Komunikologia. Teoria i praktyka w komunikacji”, Wyd. Naukowe IF UAM, Poznań 2012, s. 140. 81 Ibidem, s. 146. 82 P. Beynon-Davis, Inżynieria systemów informacyjnych, WNT, Warszawa 1999, s. 16. Bernard Berelson wiąże informację z komunikacją podkreślając, że komunikacja to „transmisja informacji, myśli, emocji, umiejętności itp. za pośrednictwem symboli, słów, obrazów, figur, grafów itp.”78. W polskich badaniach definicję komunikacji przedstawiają m.in. Andrzej Antoszewski i Ryszard Herbut, którzy piszą, że „komunikowanie społeczne jest to proces wytwarzania, przekształcania i przekazywania informacji pomiędzy jednostkami, grupami i organizacjami społecznymi”79. Te i inne podobne definicje Michał Wendland nazywa „transmisyjnym ujęciem komunikacji”80. Autor wskazuje, że istniejące definicje nie dają jednoznacznej odpowiedzi na pytanie o to, czym jest sama informacja. Wyraźnie oddziela potoczne rozumienie terminu, od jego zastosowań naukowych. Dochodzi również do wniosku, że nie każde działanie komunikacyjne jest przekazywaniem informacji, ale niektóre przekazy informacji są działaniami komunikacyjnymi81. Wprowadzenie wyraźnego rozróżnienia między informacją i komunikacją wydaje się istotne z punku widzenia dalszych rozważań. Z informacji interpretowanej w kontekście odbiorcy i otoczenia kulturowego rodzi się wiedza, którą według Paula Beynona-Daviesa należy rozumieć jako „informację zintegrowaną z istniejącą wiedzą”82. Wiedza powstaje zatem w wyniku praktycznej weryfikacji informacji przez odbiorcę oraz jej internalizacji. Wraz z rozwojem technologicznym wiedza także ulega pewnym zmianom. Rafał Ilnicki zauważa, że wiedza musi zostać „zapośredniczona technicznie”, bo technologie mają na nią ogromny wpływ. Autor stwierdza, że wciąż otwarte pozostaje pytanie o to „co stanie się, gdy epistemologia – nauka o poznaniu i wiedzy, zostanie rozszerzona o poznanie wynikłe z technologii. Nie chodzi tutaj jednak o sztuczne i wolicjonalne rozszerzenie polegające na wyodrębnieniu jakiegoś nowego podtypu wiedzy, lecz o uznanie jej wpływu prowadzącego do wyłonienia się rozumu interfejsowego”83. Ilnicki postuluje opracowanie cyfrowej epistemologii, jako zupełnie nowego paradygmatu wiedzy w erze cyfrowej. 83 R. Ilnicki, Technologiczne Oświecenie jako wyjście człowieka z globalnego paraliżu sztucznych mózgów dzięki rozumowi interfejsowemu, red. A. Radomski, R. Bomba, „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 203. 84 R.L. Ackoff, From Data to Wisdom, „Journal of Applies Systems Analysis”, Nr 16, 1989, s. 6. Jak wynika z przytoczonych definicji dane, informacje i wiedza pozostają ze sobą w funkcjonalnym związku. Bez danych nie byłoby informacji, bez informacji nie kształtowałaby się wiedza, bez wiedzy niemożliwe byłoby zbieranie większej ilości danych i ich interpretacja. Związek funkcjonalny zauważa również Rusell L. Ackoff, który między informacją a wiedzą wyróżnił dodatkową warstwę, jaką jest rozumienie84. Zależności funkcjonalne między danymi, informacją i wiedzą przedstawia Ilustracja 3. Ilustracja 3. Zależności między danymi, informacją i wiedzą. Źródło: M. Grabowski, A. Zając, „Dane, informacje wiedza – próba definicji”, „Zeszyty Naukowe Uniwersytetu Ekonomicznego w Krakowie”, nr 798, s. 18. Powyższa ilustracja wskazuje, że zarówno dane, informacja jak i wiedza podlegają nieustannym procesom dyfuzji. Zwraca również uwagę, że odbiorca ma dostęp do informacji oraz wiedzy, nie zaś do surowych danych. Istotne znaczenie ma fakt, że za weryfikację i przekształcanie danych w informację odpowiadają nadawcy, w tym przede wszystkim media. Walery Pisarek zauważa, że między danymi a informacją obok człowieka występuje coraz częściej maszyna (algorytm), która pomaga w ich ułożeniu i dalszym komunikowaniu85. 85 W. Pisarek, Wstęp do nauki o komunikowaniu, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2008, s. 17. 86 K. Piekarski, Kultura…, op. cit. s. 17. 87 Ibidem, s. 101. Niektórzy autorzy wskazują, że wprowadzanie twardego rozgraniczenia pomiędzy danymi i informacjami może być w wielu przypadkach niepraktyczne. Postulują zatem używanie tych pojęć z perspektywy racjonalistycznej. Jak zauważa Karol Piekarski, w takim ujęciu „niezależnie od tego, czy mamy do czynienia z zero-jedynkowym kodem, czy też ustrukturyzowanymi komunikatami w postaci publikacji naukowych, mimo wszystko tworzą one pewien zasób dostępnych treści oczekujących na aktualizację w systemie wiedzy”86. Powyższe rozgraniczenie pozwala spojrzeć na przedmiot dyfuzji w sposób bardziej pragmatyczny. Dyfuzji podlegają bowiem nie tylko dane, informacja i wiedza. W przestrzeni Internetu znajdują się treści, które uplasować można między informacją a danymi. Dlatego dla uporządkowania dalszych rozważań warto wprowadzić definicję zasobu, obejmującego wszelkie możliwe przejawy aktywności pojawiające się w sieci, które są już w jakiś sposób przetworzonymi danymi, ale nie wypełniają w pełni definicji informacji. Taki postulat wpisuje się również w pojęcie „datafikacji”, którą Karol Piekarski definiuje jako tworzenie coraz większej ilości danych, które do tej pory nie były poddawane kwantyfikacji87. Do zasobów sieci zaliczyć można m.in. dane wykorzystywane przez strony internetowe dotyczące użytkowników ich wyborów i zachowania wykorzystywane w celu personalizacji, algorytmy analizujące bądź tworzące przekazy, boty i inne programy działające w sposób nieustrukturalizowany i niezależny w sieci, reakcje na posty w mediach społecznościowych, wartość profili wyrażaną w zasięgu (sieci powiązań) z odbiorcami obserwującymi profil. Zasoby (podobnie jak dane, informacja i wiedza) mogą ulegać procesom dyfuzji. Teoretyczne podstawy tak szerokiej perspektywy badawczej można znaleźć w metodologii aktora-sieci (ANT) opracowanej przez Bruno Latoura. Zgodnie z nią najważniejsze w badaniach jest „podążanie za aktorem” i rejestrowanie jego aktywności w momencie działania (co umożliwiają algorytmy badające zachowanie użytkowników w sieci). W rozumieniu autora komunikacją będą wszystkie działania, które przy bezpośrednim lub pośrednim udziale ludzi wiążą w jakiś sposób zbiorowość88. Latour zakłada, że każda nawet najmniejsza zmiana w badanym środowisku, prowadzi do zmian w skali makro. Metodologia ANT służy temu, aby śledzić te drobne zmiany. Niekiedy metodę ANT nazywa się „socjologią rzeczy”, zaś jej celem jest badanie procesów tworzenia i osłabiania sieci powiązań między ludźmi i rzeczami. 88 K. Arbiszewski, Teoria Aktora-Sieci jako teoria mediów i komunikacji, red. M. Graszewicz, J. Jastrzębski „Teorie komunikacji i mediów vol. 1”, Oficyna Wydawnicza Atut, Wrocław 2009, s. 45. 89 Ibidem, s. 47. 90 A. Radomski, R. Bomba, Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0, Wyd. E-naukowiec, Lublin 2013, s. 7. Krzysztof Arbiszewski przekładając teorię aktora-sieci na grunt badań nad komunikacją, wskazuje kilka głównych założeń metody. Pierwsze dotyczy zwiększonej uwagi badacza, który powinien uwrażliwić się na wszystkie grupotwórcze procesy, nie zakładając z góry, jak powinny one wyglądać. Taka postawa ma pomóc w odnajdowaniu nowych środków (mediów) pozwalających na wiązanie się społeczności. Drugie założenie dotyka zmiany samego paradygmatu badań. Zdaniem Latoura badacze zbyt często decydują za aktorów, jakie siły działają gdy ci coś czynią. Tymczasem sednem metodologii powinni być sami aktorzy, wskazujący na sprawcze mechanizmy komunikacyjne, które spowodowały ich decyzję czy działanie. Trzecie założenie ANT przypisuje rzeczom materialnym złożoną i ważną rolę w procesie komunikowania. Tak pojmowane przedmioty w procesie delegowania utrwalają relacje w świecie społecznym. W badaniach nad dyfuzją przykładem może być pojawienie się smartfonów, które wymusiły na nadawcach zmianę niemalże całego paradygmatu docierania z treściami do odbiorców89. Uwrażliwienie na badaną osobę oraz szczegóły otaczającej rzeczywistości technologicznej i medialnej, to istotny postulat metodologii ANT, szczególnie w badaniach nad tak złożonym tematem jak dyfuzja treści w sieci. Powyższe rozważania dotyczące danych, zasobów, informacji i wiedzy w środowisku online stanowią część stosunkowo nowego kierunku w nauce nazywanego humanistyką cyfrową90. Nurt ten jest dość dobrze znany w środowisku naukowym na Zachodzie, ale jednocześnie wciąż bywa przedmiotem dyskusji i akademickich rozważań dotyczących jego instytucjonalizacji91. Andrzej Radomski i Radosław Bomba zauważają, że rozwój Internetu oraz nowych technologii stawia przed naukowcami zupełnie nowe wyzwania. Zdaniem autorów „tradycyjne metody badawcze przestają już wystarczać”92. Wszystko za sprawą zalewu danymi i informacjami, które Pierre Levy nazwał nawet „drugim potopem”93. Z kolei Magdalena Szpunar zauważa, że popularność humanistyki cyfrowej może wynikać z faktu, że „znane nam narzędzia analityczne i dominujące paradygmaty przestają być wystarczające do zobrazowania coraz bardziej komplikujących się struktur społecznych i kulturowych”94. Autorka dodaje, że „instrumentarium humanistów wymaga sięgnięcia do nauk ścisłych, a właściwie interdyscyplinarności. Humanistyka cyfrowa przyjmuje formę metanarracji, której trajektorie wyznaczają trzy kluczowe dla niej terminy – open source, open access i open content”95. Taka optyka oznacza wykorzystywanie w badaniach naukowych nieznanych wcześniej metodologii, poszerzenie dostępu do wiedzy, jej demokratyzacji, otwarcia i dyfuzji. 91 A. Nacher, Poza cyfrowość w zwrocie cyfrowym – od humanistyki cyfrowej do spekulatywnej komputacji, red. A. Radomski, R. Bomba, „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 87. 92 A. Radomski, R. Bomba, Zwrot…, op. cit. s. 8. 93 P. Levy, Drugi potop, red. M. Hopfinger, „Nowe media w komunikacji społecznej XX wieku. Antologia”, Wyd. Oficyna Naukowa, Warszawa 2002, s. 371. 94 M. Szpunar, Humanistyka, op. cit. s. 355. 95 M. Szpunar, Nowe media: nowe metody badawcze?, red. A. Szymańska, M. Lisowska-Magdziarz A. Hess, „Metody badań medioznawczych i ich zastosowanie”, Wyd. Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej, Kraków 2018, s. 326. 96 K. Krzysztofek, Zwrot cyfrowy: ku pracy rozproszonej, red. A. Radomski, R. Bomba, „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 38. W środowiskach akademickich zajmujących się tą tematyką, coraz mocniej akcentuje się fakt przechodzenia przez trzecią rewolucję cyfrową. Jej zasadniczą cechą jest wykorzystywanie technologii cyfrowych na skalę masową, co jak stwierdza Kazimierz Krzysztofek „zwielokrotnia potencjał informacyjny człowieka”96. Autor dodaje, że rewolucja cyfrowa odbywa się na naszych oczach, określając ramy życia poszczególnych jednostek, grup, organizacji, jak i całego społeczeństwa. Jedną ze zmian, jakie niesie za sobą trzecia rewolucja cyfrowa, jest „odmasowienie” cywilizacji oraz rozproszenie produkcji, dystrybucji (w tym dyfuzji) i konsumpcji treści. Współcześnie zniknęły niemal wszystkie bariery, które do tej pory uniemożliwiały odbiorcom publikowanie własnych rozważań czy przemyśleń, nie wspominając o fotografiach czy nagraniach. W dyskursie naukowym pojawiają się również teorie zwracające uwagę na rewolucję komputerową. Ich sedno stanowi fakt, że dawniej komputery stanowiły „odrębną rzecz”, używaną m.in. w pracy, czy na potrzeby rozrywkowe. Współcześnie dane gromadzone na urządzeniach i przez urządzenia (jak np. telefony komórkowe, komputery, Internet rzeczy), są od razu przesyłane do chmury danych w sieci. Z tego względu Internet i podłączone do niego urządzenia zostają włączone „w sposób rozproszony w środowisko naszego życia i pracy”97. 97 U. Ekman, Throughout. Art and Culture Emerging with Ubiquitous Computing, Wyd. MIT Press, Cambridge 2013, s. 22. 98 M. Castells, Społeczeństwo sieci, Wydawnictwo Naukowe PWN, Warszawa 2006, s. 21. 99 K. Krzysztofek, Zwrot…, op. cit. s. 42. 100 Ibidem, s. 49. Charakterystykę współczesności w kontekście humanistyki cyfrowej oprzeć można na podkreślaniu roli datafikacji oraz nadprodukcji informacji, przy ich niedostatecznej aktualizacji w systemie wiedzy. Wielość zasobów udostępnianych w sieci oraz postępująca kulturowa prosumpcja, w której każdy użytkownik staje się jednocześnie wytwórcą jak i konsumentem treści, prowadzi do sytuacji, w której jednostka dzięki Internetowi została wyposażona w znaczną siłę sprawczą i może w rzeczywisty sposób wpłynąć na rozwój wydarzeń na świecie98. W tym kontekście słuszne wydają się słowa Kazimierza Krzysztofka, który pisze, że współcześnie „kluczowa staje się umiejętność badania coraz bardziej zaawansowanych innowacji technologicznych pod kątem potrzeb konkretnych jednostek, społeczności, grup społecznych, kultur i różnych innych zbiorowości”99. Taki cel przyświeca również badaniom nad dyfuzją treści w sieci oraz innowacjami, jakie są wprowadzane w tej dziedzinie. Z perspektywy humanistyki cyfrowej badania nad dyfuzją mogą mieć istotne znaczenie także w lepszym poznaniu i zrozumieniu procesów wytwarzania treści, rozumianych jako główny produkt portali internetowych. Trzecia rewolucja cyfrowa sprawiła, że to komunikacja (dyfuzja) oraz informacja, odgrywają kluczową rolę w nowych modelach biznesowych. Decyzje wydawnicze mające wpływ na generowane przez portale treści powinny uwzględniać to, że w Internecie ciągle dokonują się akty twórcze i odtwórcze, ciągi komunikacyjne generują wartość dodaną, fazy produkcji są sprzężone z fazą infokomunikacyjną, wymiana informacji dokonuje się poprzez komputery i sieci, produktywność wypływa z interaktywności, dochodzi do dekoncentracji wytwarzania treści, a finalnie każdy produkt staje się sieciowy i podlega ocenie poprzez internautów100. Magdalena Szpunar w kontekście humanistyki cyfrowej wspomina o „cyfrowym zwrocie” dokonującym się na gruncie nauk społecznych. Autorka rozumie go „jako metodologiczną zmianę dokonującą się w obrębie nauki, domagającą się wypracowania nowych modeli i sposobów pracy naukowej, narzędzi i metod pozwalających korzystać z ogromnego zbioru danych – big data oraz informacji dostępnych online”101. Można powiedzieć, że humanistyka cyfrowa operacjonalizuje i wykorzystuje w swoim arsenale metodologicznym nowe, nieznane wcześniej narzędzia. Jak zauważa Radosław Bomba „narzędzia aktywnie współtworzą dane pole badawcze, do pewnego stopnia wyznaczając także zakres możliwych analiz i odkryć. Współcześnie dzięki zastosowaniu cyfrowych narzędzi w humanistyce logika ta zaczyna również funkcjonować na gruncie nauk o człowieku”102. Jeszcze na początku XXI wieku narzędzia cyfrowe służyły raczej jako uzupełnienie dla tradycyjnych badań społecznych i humanistycznych. Współcześnie narzędzia cyfrowe „stają się czynnikami generującymi nowe modele poznania i rozumienia rzeczywistości”103. Największym atutem wykorzystywania podobnych narzędzi w badaniach, jest możliwość analizowania zachowań jednostek lub grup w oparciu o big data, co jak wskazywałem wcześniej eliminuje ewentualne problemy powstające przy doborze próby. Interdyscyplinarne badania nad Internetem dają szansę na uchwycenie fenomenów społecznych, kulturowych i gospodarczych, takich jak zawiązywanie się nowych społeczności w social mediach, wzajemne przenikanie kultur, czy zmian w trendach turystycznych, produkcyjnych i handlowych. 101 M. Szpunar, Humanistyka… op. cit. s. 362. 102 R. Bomba, Narzędzia cyfrowe jako wyznacznik nowego paradygmatu badań humanistycznych, red. A. Radomski, R. Bomba, „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 58. 103 Ibidem, s. 60. 104 R. Bomba, Narzędzia…, op. cit. s. 66. Radosław Bomba zwraca uwagę na ciekawy fakt dotyczący środowiska akademickiego. Zdaniem autora humanistyka cyfrowa wymusza na naukowcach zmianę paradygmatu prezentowania i dyfuzji wyników badań. Jak pisze „naukowcy, aby dotrzeć ze swoim przekazem do szerszych grup społecznych, będą musieli wykorzystywać nowe kanały komunikacji. Zamiast tradycyjnego tekstu – infografikę, multimedialne prezentacje, film, interaktywne i usieciowione wizualizacje. Wiąże się to również z konieczności otwarcia się na sieciowe formy komunikacji i wykorzystanie otwartych licencji zgodnie z duchem open access”104. Podobnego zdania jest Andrzej Radomski, który postuluje daleko idące zmiany w wizualizacji wyników badań humanistycznych oraz potrzebę ponownego zastanowienia się nad metodologiami służącymi do badań w świecie cyfrowym, zdominowanym już nie przez pismo, ale przez obraz105. 105 A. Radomski, Digital storytelling. Kilka słów o wizualizacji wiedzy w humanistyce, red. A. Radomski, R. Bomba, „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 74. 106 S. Ramsay, Reading Machines. Toward an Algorithmic Criticism, Wyd. University of Illinois Press, Chicago 2011 s. 12. 107 Nie mam na tu myśli jedynie celowych oszustw i kłamstw. Nie ulega wątpliwości, że osoby tworzące wielkie bazy danych oraz algorytmy mają swoje przekonania, tradycje, przyzwyczajenia, poglądy, które mogą nawet w sposób podświadomy wpłynąć na cyfrowy kod, wykorzystywany potem przez inne osoby. 108 C. Anderson, The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, [dostępny online:] https://www.wired.com/2008/06/pb-theory/ [dostęp: 23.10.19r.]. 109 R. Bomba, Narzędzia…, op. cit., s. 68. 110 M. Szpunar, Nowe media…, op. cit. s. 328. 111 Ibidem, s. 328. Humanistyka cyfrowa niesie również ze sobą pewne niebezpieczeństwa. Pierwszym jest zbyt wielka ufność w nieomylność informacji generowanych na podstawie wielkich zbiorów danych i algorytmów106. Podejmując się badań przy wykorzystaniu narzędzi do analizy big data, warto mieć na uwadze, że dane zawsze gromadzone są w jakimś celu i że ludzie posiadający odpowiednie kompetencje w dziedzinie informatyki mogą na takie dane wpływać. Podobnie w przypadku algorytmów, które również mogą zawierać w sobie modyfikacje zniekształcające finalny obraz analizy107. Z powyższych względów niesłuszne wydają się wypowiedzi osób, które wieszczą upadek tradycyjnego paradygmatu badań na rzecz analiz dokonywanych przez komputery na wielkich zbiorach danych108. Podobnego zdania jest Radosław Bomba, który podkreśla interpretatywny charakter danych generowanych przez algorytmy109. Inny rodzaj zagrożenia wypływający z popularności humanistyki cyfrowej, może stanowić inflacja badań prowadzonych z wykorzystaniem narzędzi cyfrowych. Magdalena Szpunar zauważa, że powszechność badań sondażowych przeprowadzanych z wykorzystaniem Internetu „wywołuje złudne wrażenie, że prowadzenie badań drogą online nie wymaga żadnych specjalnych kompetencji metodologicznych”110. Autorka podkreśla również, że nie można sprowadzać humanistyki cyfrowej jedynie do technologizowania procesu badawczego, bowiem istotą badań humanistycznych jest „głęboki namysł, nadawanie sensów i zrozumienie”111. Powyższe rozważania teoretyczne dają podstawy do szerokiego zdefiniowania „treści”, będącej przedmiotem podlegającym procesom dyfuzji w środowisku Internetu. Sztuczne zawężanie pojęcia, mogłoby doprowadzić do semantycznych nieporozumień i nieścisłości podczas przeprowadzania dalszych badań. Ewentualne wątpliwości metodologiczne, co do szerokiej definicji „treści”, powinno rozwiać wykorzystanie narzędzi do analizy big data, które pozwolą na badanie pełnej próby, czyli wszystkich internautów i wszystkich publikowanych treści w Polsce. Podsumowując, dyfuzji podlegać mogą wszelkie rodzaje aktywności użytkowników i algorytmów pojawiające się w sieci, które na potrzeby niniejszej dysertacji skrótowo nazywać będę „treścią”. Do treści można w szczególności zaliczyć: • Dane - nieprzetworzone zbiory wartości liczbowych, reprezentujące określony przejaw aktywności rejestrowany na świecie, systemy open source, kody, algorytmy źródłowe. To najszerszy zbiór, zawierający w sobie wszystkie znajdujące się w sieci WWW przejawy aktywności ludzi i programistów (twórców algorytmów), jak również samych algorytmów, zgromadzony w chmurze na serwerach sieciowych, wymagający zdekodowania w procesie dyfuzji. • Zasoby - wszelkie przejawy aktywności użytkowników Internetu lub algorytmów nie będące danymi, informacją ani wiedzą, generowane i odbierane za pośrednictwem urządzeń technicznych i zainstalowanych na nich programów. Przykładami zasobu będą rozrywkowy mem, komentarz stworzony przez algorytm, automatyczne uruchomienie urządzenia podłączonego do sieci (Internet rzeczy) zainicjowane przez algorytm, dane służące personalizacji treści. • Informacje - przetworzone dane i/lub zasoby sieci, stanowiące nowość, wnoszące nowe fakty do rzeczywistości społecznej lub osobistej, np. artykuł na portalu internetowym, post w mediach społecznościowych. • Komunikację – rozumianą jako procesy technologiczne, mediologiczne lub społeczne prowadzące do przyspieszonego lub spowolnionego rozprzestrzeniania się (dyfuzji) treści w sieci. • Wiedzę - weryfikowalny zbiór informacji pozwalających na wnioskowanie na dany temat, upowszechniana w formie edukacji (e-learning)112. 112 W przywoływanej wcześniej hierarchii DIKW na szczycie piramidy znajduje się mądrość, którą można rozumieć jako indywidualną zdolność do rozpoznania i wykorzystania wiedzy. Mądrość nie podlega weryfikacji naukowej, dlatego celowo pominąłem ją w swoich rozważaniach. Ewentualna „dyfuzja mądrości” w Internecie wykracza poza ramy niniejszej pracy. Próby badań nad podobnym zjawiskiem należą raczej do sfery zainteresowań filozofii techniki i psychologii. 113 A. Guille, Information…, op.cit. s. 1. 114 R. Fiedler, Mediamorphosis: Understanding new media, Wyd. Pine Forge Press, California 1997, s. 25. 115 Wyjątkiem są kraje, w których Internet jest blokowany i cenzurowany, jak ma to miejsce w Chinach czy Korei Północnej. Chińczycy stworzyli swoją własną sieć (chinanet), wyrzucając zachodnie korporacje z rynku lub dopuszczając ich działanie pod restrykcyjnymi warunkami z poddaniem Na koniec warto zauważyć, że analizowane przejawy aktywności nie zawsze są dostępne dla wszystkich odbiorców. Treści mogą mieć bowiem charakter otwarty (mają do nich dostęp wszyscy – np. open source, Wikipedia, większość portali internetowych), częściowo otwarty (dostęp do treści wymaga zalogowania, podania odpowiednich informacji lub zapłacenia określonej kwoty np. serwisy udostępniające filmy, poczta e-mail, sklepy internetowe), częściowo zamknięty (dostęp do danych wymaga akceptacji innego człowieka np. zamknięte fora lub grupy w serwisach społecznościowych) lub zamknięty (dostęp do treści możliwy jest tylko dla podmiotów działających w danej organizacji np. sieci typu intranet)113. Nie stanowi to jednak problemu w przypadku badań nad dyfuzją treści zamieszczanych przez portale, ponieważ dostęp do nich jest otwarty. 1.3. Użytkownik jako podmiot dyfuzji w sieci kontekstualnej i kulturze partycypacji Kim jest współczesny użytkownik Internetu? Pytanie z pozoru wydaje się proste, ale aby dokonać kompleksowej operacjonalizacji pojęcia „użytkownik sieci” nie wystarczą jedynie statystyki dotyczące liczby internatów. Internet wiąże ze sobą użytkowników w sposób wielowymiarowy, implikując daleko idące zmiany społeczne i kulturowe, co będę starał się wykazać w toku rozprawy. Pierwszym zagadnieniem wymagającym doprecyzowania jest sam Internet jako medium, które jest wykorzystywane przez użytkowników. W środowisku naukowym sieć bywa określana jako multimedium, będącym wynikiem połączenia definicji metamedium (platformy publikacji i komunikacji dla innych mediów) z makromedium (co wskazuje na globalną skalę zjawiska)114. Zgodnie z powyższą definicją Internet stanowi globalną platformę służącą do komunikacji między wszystkimi ludźmi, grupami ludzi i instytucji niemal z całego świata115. się cenzurze włącznie. Dzięki wykorzystaniu algorytmu filtrującego nazywanego „złotą tarczą” władze Chin mają możliwość blokowania niepożądanych stron i filtrowania przesyłanych danych. Dodatkowo władze Chin kopiują zachodnie pomysły i tworzą własne strony naśladujące np. Google czy Facebooka. Zwykli ludzie, chcąc uzyskać dostęp do zachodnich stron stosują specjalne oprogramowanie, które jest zwalczane przez władze. Sytuacja ta nie ma wpływu na badania nad dyfuzją treści w Polsce, niemniej uświadamia, że przy pomocy odpowiednich algorytmów, Internet może stać się narzędziem służącym do manipulowania przepływem treści i inwigilowania społeczeństwa, co może potwierdzać konieczność pogłębionych badań nad dyfuzją. 116 E. Maigret, Socjologia…, op. cit. s. 425. 117 R.T. Azuma, A Survey of Augmented Reality, [w]: „Presence: Teleoperators and Virtual Environments”, nr 4, 1997, s. 356. Internet należy rozumieć jako medium otwarte, skierowane do pojedynczych osób, grup osób, dużych zbiorowości (społeczeństw), instytucji, organizacji pozarządowych, fundacji, mediów, dużych i małych firm oraz wszystkich innych podmiotów biorących udział w życiu społecznym, religijnym lub kulturowym. Użytkownikami Internetu będą zatem wszyscy ludzie i instytucje, które posiadają do niego dostęp. Warto nadmienić, że pośrednio Internet może oddziaływać także na osoby, które nie posiadają do niego dostępu. Zmiany społeczno-kulturowe wywołane rozwojem technologii wykorzystujących Internet obejmują wszystkich ludzi, niezależnie od wieku, rasy, płci, czy pozycji społecznej. Dla przykładu dzięki globalnej sieci, organizacje charytatywne mają możliwość docierania z komunikatami do większego grona darczyńców, co może mieć wpływ na przyspieszenie rozwoju uboższych regionów świata. W kontekście osób, które nie posiadają dostępu do sieci, warto wspomnieć o problemie wykluczenia cyfrowego, rozumianego jako poszukiwanie różnic zachodzących między osobami wykorzystującymi Internet i technologie teleinformatyczne, a osobami które tego nie robią. Jak wskazują badania różnice wynikają głównie z zamożności poszczególnych społeczeństw i ich członków. Eric Maigret wśród innych przyczyn wykluczenia cyfrowego wymienia brak znajomości języka angielskiego, który stał się obecnie dominującym w sieci. Autor zauważa również, że w szczególności osobom starszym brakuje odpowiednich umiejętności technicznych oraz sprawności poznawczej, niezbędnych do korzystania z Internetu i nowoczesnych rozwiązań technologicznych116. Wykorzystywanie Internetu przez użytkowników można rozpatrywać strukturalnie, z perspektywy badań nad zapośredniczeniem technologicznym i ontologicznymi skutkami tego zjawiska. W nauce funkcjonuje pojęcie „rozszerzonej rzeczywistości”, która jest czymś pośrednim między rzeczywistością wirtualną (generowaną w całości przez komputery), a rzeczywistością realną, w której żyjemy117. Na rzeczywistość rozszerzoną (lub według innych badaczy „rzeczywistość poszerzoną”) w ujęciu użytkownika Internetu składa się ogromna ilość danych, w których ludzie są „zanurzeni” nawet nieświadomie118. Zjawisko datafikacji, rozumianej jako tendencja do tworzenia coraz większej ilości danych o charakterze liczbowym (kwantyfikowalnym), dotyczących w głównej mierze tych aspektów życia, które pozostawały do tej pory poza zasięgiem technologii cyfrowych119, spowodowane jest generowaniem danych i treści przez samych użytkowników, komputery, kamery monitoringu, firmy, instytucje, państwa itd. Wejście w tak rozumianą „rzeczywistość rozszerzoną” implikuje konieczność zapośredniczenia technologicznego. Innymi słowy same dane nie mają dla człowieka żadnego znaczenia, bo nie mogą być odczytane i wykorzystane bez urządzeń technicznych. Poruszając się zatem w ramach przestrzeni fizycznej, stykamy się z warstwą wirtualną poprzez urządzenia podłączone do Internetu120. W takim ujęciu użytkownik Internetu staje się częścią globalnej struktury, obejmującej swoim zasięgiem cały świat, wszystkich innych ludzi, instytucje, organizacje, firmy i algorytmy generujące oraz przetwarzające dane za pośrednictwem sieci. 118 Przykładem może być sieć GPS, która dostosowuje m.in. wyświetlane reklamy do lokalizacji urządzenia i jego właściciela (użytkownika). 119 K Piekarski, Ekonomia percepcji. Mechanizmy selekcjonowania informacji w Internecie, Uniwersytet Śląski, Katowice 2014, s. 70. 120 L. Manovich, The Poetics of Augmented Space, [dostępny online:] http://manovich.net/content/04- projects/035-the-poetics-of-augmented-space/31_article_2002.pdf [dostęp: 22.10.19r.]. 121 Ł. Mirocha, Poszerzona przestrzeń ery cyfrowej. Analiza poziomów ontologicznych oraz sieci relacji między mediami, artefaktami ery cyfrowej a człowiekiem, red. A. Radomski, R. Bomba, „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013, s. 180. Łukasz Mirocha zauważa, że „zanurzenie użytkownika w rzeczywistość kreowaną dzięki pracy urządzeń logicznych postępuje wraz z ich miniaturyzacją i zwiększeniem zakresu zastosowań. W związku z tym zmienia się także postawa samego człowieka wobec statusu tych artefaktów w otaczającej go rzeczywistości – istnieją one w niej już nie tylko jako podległe mu narzędzia, lecz w znacznym stopniu budują tę rzeczywistość, w coraz większej mierze znajdując się poza kontrolą użytkowników”121. Nie wdając się w głębsze rozważania natury filozoficznej warto podkreślić, że współcześnie zdefiniowanie użytkownika Internetu powinno uwzględniać wykorzystywanie przez niego urządzeń pośredniczących oraz uświadamianą lub nie strukturę powiązań między big data, technologią, społeczeństwem i kulturą. Na globalną skalę zjawiska i jego rozwój, skutkujący ciągłym zwiększaniem się liczby użytkowników korzystających z Internetu wskazują statystyki. Jak wynika z badań 84% wszystkich Polaków powyżej 7 roku życia ma dostęp do sieci. Według Polskich Badań Internetu w sierpniu 2019 roku z Internetu w naszym kraju korzystało 28 milionów użytkowników122. Porównanie badań z poprzednich lat oraz z innych krajów Europy wskazuje, że użytkowników z roku na rok przybywa. Na Wykresie 1. znajduje się porównanie liczby użytkowników Internetu w krajach Unii Europejskiej w roku 2012 i 2017123. 122 PBI Gemius, Wyniki badania Gemius/PBI za sierpień 2019, [dostępny online:] https://www.gemius. pl/wszystkie-artykuly-aktualnosci/wyniki-badania-gemiuspbi-za-sierpien-19.html [dostęp 25.10.19r.]. 123 Eurostat, Dane statystyczne dotyczące gospodarki cyfrowej i społeczeństwa cyfrowego – gospodarstwa domowe i osoby fizyczne, [dostępny online:] https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Digital_economy_and_society_statistics_households_and_individuals/plv [dostęp: 25.10.19r.]. Wykres 1. Porównanie liczby użytkowników Internetu w krajach Unii Europejskiej w roku 2012 i roku 2017 (w %). Źródło: Eurostat. Powyższy wykres jednoznacznie wskazuje, że liczba internautów w krajach Unii Europejskiej systematycznie wzrasta. Podobnie ma to miejsce w Polsce i innych krajach świata. Warto zauważyć, że zmienia się również sposób korzystania z sieci. Statystyki dla Unii Europejskiej z 2017 roku przedstawia Wykres 2. Wykres 2. Częstotliwość korzystania z Internetu w krajach Unii Europejskiej (% udział użytkowników w wieku od 16 do 74 lat). Źródło: Eurostat Powyższy wykres pokazuje, że w Europie systematycznie rośnie liczba użytkowników, którzy korzystają z Internetu przynajmniej raz dziennie, przy jednoczesnym spadku odsetka osób logujących się do sieci przynajmniej raz w tygodniu i przynajmniej raz na trzy miesiące. Zmiana sposobu korzystania z Internetu może wynikać ze wzrostu liczby użytkowników urządzeń mobilnych, takich jak smartfony czy tablety. Według „Raportu mobile i digital na świecie w 2019 roku”124 (opublikowanego w lutym 2019 roku), w Polsce na 38,7 miliona mieszkańców przypada 50,58 miliona kart SIM125. Po przeliczeniu daje to wynik 1,33 karty SIM na każdego Polaka126. Liczbę osób korzystających z Internetu stacjonarnego oszacowano na 30,7 miliona, z czego 18 milionów aktywnie korzysta z mediów społecznościowych, a 16 milionów wykorzystuje w tym celu urządzenia mobilne. 124 Raport o liczbie użytkowników Internetu w Polsce [dostępny online:] https://mobirank.pl/2019/ 02/01/raport-mobile-i-digital-na-swiecie-w-2019-roku/ [dostęp: 11.11.19]. 125 Karta SIM (z j. ang. subscriber identity module) wykorzystywana jest przez sieci telefonii komórkowych do identyfikowania abonentów, korzystających z ich usług, w tym wykorzystujących na swoich urządzeniach Internet. 126 Nie musi to oznaczać, że każdy Polak posiada telefon komórkowy obsługujący Internet, ale daje jasną wskazówkę co do tendencji rozwojowych w tym obszarze. Trend wzrostowy, w każdej z przedstawionych w raporcie dziedzin, odnotowywany jest od lat i nic nie wskazuje na to, aby miał się zmienić. Powyższe dane uświadamiają ogromne znaczenie urządzeń mobilnych oraz social mediów w badaniach nad dyfuzją treści w Internecie. Naukowcy przewidywali, że wykorzystywanie nowych technologii komunikacyjnych doprowadzi do głębokich przemian społeczno-kulturowych oraz zmian w sposobie konsumowania i dyfuzji treści. Marshal McLuhann prognozował, że z czasem pasywny odbiorca przekazów medialnych coraz częściej będzie wchodził w rolę nadawcy127. Koncepcja ta implikuje istnienie różnych poziomów zaangażowania odbiorców: od biernego widza (tradycyjne media, jak prasa, radio telewizja) po aktywnego wytwórcę treści. Magdalena Szpunar twierdzi, że współcześnie „odbiorcy uzyskali równy nadawcom status”128. Analizując to zagadnienie warto zauważyć, że w swoich początkach Internet charakteryzował się podobnymi cechami jak media tradycyjne. Wraz z rozwojem nowych technologii i form komunikacji, doszło do zmiany paradygmatu korzystania z sieci. Krakowska medioznawczyni, opisując proces przechodzenia od ery Internetu 1.0 (WEB 1.0) do ery Internetu 2.0 (WEB 2.0), zwraca uwagę, że chodzi w nim przede wszystkim o „zmiany w obszarze użytkowania tego medium”. Sieć stała się „jakościowo inna” z powodu przesunięcia „od biernego użycia w stronę zaangażowania użytkowników, dzielenia się treścią i danymi, i tworzenia społeczności online wokół serwisów społecznościowych”129. 127 M. McLuhan, B. Nevitt, Take Today: The Executive as Dropout, Nowy Jork 1972, s. 178. 128 M. Szpunar: Nowe media a paradygmat kultury uczestnictwa, „Teorie komunikacji i mediów”, red. J. Jastrzębski, Wrocław 2010, s. 252. 129 M. Szpunar, Nowe-stare medium. Internet między tworzeniem nowych modeli komunikacyjnych a reprodukowaniem schematów komunikowania masowego, Wyd. IFiS PAN, Warszawa 2013, s. 57. 130 M. Szpunar: Nowe media…, op. cit. s. 256. Magdalena Szpunar zestawia tradycyjne media z Internetem 2.0 i zauważa, że w przypadku prasy, radia, telewizji i początkowej fazy rozwoju Internetu, rola nadawcy była dominująca, stosunek nadawcy do odbiorcy był nierówny ze względu na uprzywilejowanie nadawców, zaś charakter nadawcy był zinstytucjonalizowany. Sytuacja ta zmieniła się dopiero wraz z nadejściem ery WEB.2.0, w którym dominującą rolę zaczynają odgrywać media społecznościowe, w których kluczowa jest partycypacja użytkowników w tworzeniu i dyfuzji informacji130. Porównanie roli nadawcy i odbiorcy w mediach tradycyjnych oraz Internecie zawiera Tabela 2. Tabela 2. Porównanie roli nadawcy i odbiorcy w poszczególnych mediach. Prasa Radio Telewizja Internet WEB 1.0 WEB 2.0 Rola nadawcy Dominująca Dominująca Dominująca Dominująca Równa odbiorcy Rola odbiorcy Pasywna Pasywna Pasywna Pasywna Aktywna Stosunek nadawca-odbiorca Nierówny, nadawca uprzywilejowany Nierówny, nadawca uprzywilejowany Nierówny, nadawca uprzywilejowany Nierówny, nadawca uprzywilejowany Równy, nadawca i odbiorca tak samo istotni Charakter nadawcy Zinstytucjo-nalizowany Zinstytucjo-nalizowany Zinstytucjo-nalizowany Zinstytucjo-nalizowany Prywatny Źródło: M. Szpunar: Nowe media a paradygmat kultury uczestnictwa, „Teorie komunikacji i mediów”, red. J. Jastrzębski, Wrocław 2010. Rozważając odchodzenie od linearnego sposobu konsumowania mediów na rzecz większego zaangażowania użytkowników, w nauce wprowadzono definicję treści wytwarzanych przez użytkowników (z j. ang: user generated content, w skrócie UGC). W badaniach nad zagadnieniem podkreśla się, że zmienia ono paradygmat konsumpcji i dyfuzji zasobów znajdujących się w sieci. Działanie stron internetowych, zwierających głównie treści wytwarzane przez użytkowników (np. Facebook, Youtube), implikuje powstanie nowych wzorców i modeli odbioru mediów, stwarzając jednocześnie możliwości dla rozwoju biznesu131. Autorzy zgodnie wiążą rozwój UGC z WEB 2.0 i rozwojem mediów społecznościowych. Na wagę zagadnienia wskazuje fakt, że prób jego dookreślenia podejmują się organizacje międzynarodowe. Definicję user generated content opracowała m.in. Organizacja Współpracy Gospodarczej i Rozwoju (OECD). Zgodnie z nią, aby mówić o UGC spełnione muszą zostać następujące warunki: 131 M. Cha, H. Kwak, P. Rodriguez, Y. Ahn, S. Moon, I tube, you tube, everybody tubes: analyzing the world's largest user generated content video system „Proceedings of the 7th ACM SIGCOMM conference on Internet measurement”, Nowy Jork 2007, [dostępny online:] http://conferences.sigcomm .org/imc/2007/papers/imc131.pdf [dostęp 12.11.19r.]. 1) treść musi zostać opublikowana na ogólnodostępnej stronie internetowej lub w mediach społecznościowych, do której dostęp mają wybrane grupy osób; 2) w treść musi zostać włożony konkretny, kreatywny wysiłek; 3) treść musi zostać stworzona poza profesjonalnymi nadawcami132. 132 G. Vickery, S. Wunsch-Vincent, Participative web and user-created content: Web 2.0, wikis, and social networking, Wyd. Organisation for Economic Cooperation and Development, Paryż 2007, s. 14. 133 T. O’Reilly, What is Web 2.0, [dostępny online:] https://www.oreilly.com/pub/a/web2/archive/what- is-web-20.html [dostęp: 20.11.19r.]. 134 Pliki cookies (nazywane często „ciasteczkami) są to tymczasowe fragmenty kodu, które strona internetowa zapisuje w przeglądarce użytkownika, aby otrzymać je z powrotem, podczas jego kolejnych odwiedzin na witrynie, zob. s. 164. 135 J. Geary, DoubleClick (Google): What is it and what does it do?, [dostępny online:] https://www.the guardian.com/technology/2012/apr/23/doubleclick-tracking-trackers-cookies-web-monitoring [dostęp: 21.11.19r.]. 136 Kilka powodów, dla których niemal 2 mln osób wybrało AdSense, [dostępny online:] https://www.go ogle.com/adsense/start/#/?modal_active=none [dostęp: 20.11.19r.]. 137 Format mp3, to algorytm kompresji dźwięku, umożliwiający zapisywanie i rozprzestrzeniania nagrań w środowisku cyfrowym. Mimo wielu prób opisu WEB 2.0, w środowisku naukowym brakowało zgody co do definicji zjawiska. Aby przeciąć spekulacje, które toczyły się w dyskursie od dłuższego czasu, w 2005 roku Ted O’Reilly (uważany za ojca terminu WEB 2.0) opisał podstawowe cechy odróżniające Internet pierwszej i drugiej generacji133. Ich charakterystykę wraz z opisami przykładów przedstawiono w Tabeli 3. Tabela 3. Charakterystyka różnic między WEB 1.0 i WEB 2.0 wg Toma O’Reilly’ego. WEB 1.0 WEB 2.0 DoubleClick – firma zajmująca się reklamami w sieci, tworząca bannery i animacje, zbierająca za pośrednictwem plików cookies134 informacje o użytkownikach w celu prawdopodobnie pierwszej na świecie próby spersonalizowania wyświetlanych reklam, przejęta przez Google w 2007 roku135. Google AdSense – spersonalizowany system wyświetlania reklam oparty o informacje zbierane przez Google na temat użytkowników korzystających z sieci; personalizacja dotyczy także właścicieli stron internetowych posiadających kontrolę nad wyświetlanymi reklamami oraz dla reklamodawców konkurujących o uwagę grup docelowych ważnych dla prowadzenia ich biznesu136. Mp3.com – uruchomiona w 1997 roku witryna udostępniająca muzykę w formacie mp3137, bez możliwości wgrywania nowych plików przez użytkowników. Napster – rozbudowana aplikacja służąca do pobierania i dzielenia się przez użytkowników plikami w formacie mp3, posiadająca liczne dodatkowe opcje jak np. wbudowany czat. Akamai – jedna z największych firm zajmujących się przechowywaniem danych (dostarczaniem miejsc na serwerach) oraz przyspieszaniem pracy Internetu, dostarczaniem strumieni z przekazem na żywo (np. w przypadku gier online, relacji wideo na żywo transmitowanych w sieci); według danych udostępnionych przez firmę obsługuje ona 30% ruchu w Internecie138. BitTorrent – sposób dystrybucji plików między użytkownikami sieci, którego największą zaletą jest odciążanie tradycyjnych serwerów poprzez jednoczesny podział pasma pobierania plików między osoby, które wcześniej pobrały dany plik; tym samym źródłami dla pobieranych plików stają się komputery użytkowników. Britannica Online – najsłynniejsza encyklopedia tworzona przez specjalistów, wydana po raz pierwszy w XVIII wieku, obecnie wydawana jedynie online139. Wikipedia – wolna encyklopedia, tworzona, edytowana i wydawana przez setki tysięcy internautów z całego świata, udostępniana bezpłatnie. Strony osobiste – popularne na początku XXI wieku strony internetowe o najróżniejszej tematyce tworzone przez użytkowników, często opisujące ich rodziny, przemyślenia, pracę. Blogi – spersonalizowane strony internetowe stanowiące rodzaj pamiętnika, w którym użytkownicy mogą dzielić się swoimi przemyśleniami i opiniami. Page views – liczba odsłon strony. Cost per click – koszt / cena za kliknięce – nowy model zaangażowania użytkowników, w którym większą rolę odgrywa zaangażowanie mierzone czasem, a nie kliknięciem. Publikacja – zinstytucjonalizowana, cechująca się niskim zaangażowaniem odbiorców oraz dominującą rolą wydawców/mediów. Partycypacja – współtworzenie treści przez użytkowników Internetu, malejąca rola nadawców na rzecz współuczestnictwa, współodpowiedzialności i tworzenia nowych społeczności niezależnie od działań tradycyjnych mediów. 138 Akamai. Czym się zajmujemy, [dostępny online:] https://www.akamai.com/pl/pl/ [dostęp 20.11.19r.]. 139 Po 244 latach koniec z drukowaniem Encyklopedii Britannica, [dostępny online:] http://wiadom osci.gazeta.pl/wiadomosci/1,114873,11338,Po_244_latach_koniec_z_drukowaniem_Encyklopedii_Britannica.html [dostęp: 21.11.19r.]. Źródło: opracowanie własne na podstawie T. O’Reilly, „What is Web 2.0”. Dyferencja wprowadzona przez O’Reilly’ego opiera się na założeniu zmiany paradygmatu roli użytkownika w procesie komunikacji, która dzięki rozwojowi nowych technologii będzie rosnąć, kosztem roli tradycyjnie rozumianych nadawców i dostawców usług. Opisując proces przechodzenia od pierwszej do drugiej generacji Internetu można powiedzieć, że przeszedł on ewolucję od biernych form odbioru (pierwsze modemy, Internet służący głównie do czytania treści oraz wysyłania i odbierania e-maili), do aktywnych form współtworzenia rzeczywistości medialnej przez użytkowników. W tym kontekście uprawnione wydaje się stwierdzenie, że rola nadawców w sieci coraz bardziej ogranicza się do tworzenia „ram”, które następnie użytkownicy (i/lub algorytmy) wypełniają swoją działalnością. Dynamiczne procesy zmian w mediach prowadzą środowisko naukowe do przekonania, że współcześnie możemy mówić już o formowaniu się trzeciej generacji Internetu (WEB 3.0). Szerokie porównanie koncepcji rozwoju sieci przedstawiają Umesha Naik i D. Shivalingaiah. Autorzy twierdzą, że rozwój Internetu 3.0 następuje poprzez transformację znanej nam dziś sieci w jedną, globalną bazę danych, w której aplikacje (nie będące przeglądarkami internetowymi140) będą odpowiadać za wytwarzanie i dyfuzję wysokiej jakości treści. Wiąże się to z koniecznością szerokiego wykorzystania sztucznej inteligencji, w celu stworzenia „Internetu trójwymiarowego”, nazywanego siecią semantyczną, kontekstualną141. Najważniejszym atrybutem sieci semantycznej, miałoby być wykorzystywanie algorytmów do zbierania i przetwarzania wszystkich danych o użytkownikach, w celu dostarczenia finalnemu odbiorcy maksymalnie spersonalizowanych treści, usług lub produktów. Sztuczna inteligencja w ramach WEB 3.0 ma analizować rytm dnia, zdrowie, gusta czy przyzwyczajenia ludzi i oferować skonkretyzowane rozwiązania, nawet przed uświadomieniem (zaistnieniem) potrzeby u odbiorcy. 140 Przeglądarki internetowe to programy przystosowane do komputerów osobistych a także aplikacje na urządzenia mobilne pozwalające na pobieranie i wyświetlanie stron udostępnianych przez serwery www, a także wyświetlanie plików multimedialnych takich jak obrazy, nagrania czy relacje wideo na żywo. 141 U. Naik, D. Shivalingaiah, Comparative Study of Web 1.0, Web 2.0 and Web 3.0, „International CALIBER – 2008”, [dostępny online:] http://www.ftsm.ukm.my/ss/book/Comparative%20Study.pdf [dostęp: 20.11.19r.]. Rozwój sieci kontekstualnej najlepiej zobrazować poprzez przykład. W założeniu sieć semantyczna uzyska pełen dostęp do wszystkich aktywności użytkownika, rejestrowanych przez wszystkie urządzenia korzystające z Internetu. Wyobraźmy sobie sytuację, w której użytkownik Jan Kowalski opublikował w mediach społecznościowych zdjęcie budynku z podpisem „dom rodzinny”. Wcześniej w kilku wiadomościach przedstawiał się i pisał, że pochodzi z Krakowa. Algorytmy Internetu semantycznego „połączyłby” te trzy informacje, sprawdziłyby zapisane na serwerach zdjęcia domów z Krakowa i poznałyby w ten sposób adres domu rodzinnego Jana Kowalskiego. Następnie sprawdziłyby dane dotyczące okolicy domu, a mając dostęp do informacji lokalizacyjnych oraz bankowych poznałyby częstotliwość pojawiania się Jana Kowalskiego w rodzinnych okolicach oraz jego ulubioną restaurację, z której usług korzysta będąc w Krakowie. Przy następnej wizycie Jana Kowalskiego w swoim rodzinnym domu algorytmy zaproponowałyby mężczyźnie kolację w jego ulubionej restauracji w okolicach z rabatem. Przykład ten można rozbudowywać w nieskończoność, dodając kolejne dane „pozostawiane” (świadomie lub nie) przez Jana Kowalskiego w sieci i wyciągając z nich coraz bardziej konkretne i spersonalizowane propozycje, dotyczące treści, usług i produktów, które algorytmy sztucznej inteligencji mogłyby proponować użytkownikowi sieci kontekstualnej. Należy w tym miejscu podkreślić, że stworzenie ram technologicznych dla podobnych algorytmów jest niezwykle trudne. Pracują nad nimi eksperci i informatycy z różnych państw świata m.in. w projekcie „W3C Semantic Web Activity”142. Celem mojej dysertacji nie jest opis technologicznych wyzwań, jakie stoją przed programistami, jednak zaprezentowanie przykładowych problemów z jakimi się mierzą może pomóc w lepszym zrozumieniu idei sieci kontekstualnej. W pełni rozwinięty algorytm, który miałby służyć w Internecie semantycznym, musiałby posiadać możliwość poprawnego formalnego wnioskowania logicznego osadzonego w ontologii. Na przykład definiując ogromną kategorię jaką jest słowo „człowiek”, algorytm musiałby umieć rozpoznawać wszelkie relacje jakie zachodzą między ludźmi, porządkować je w zbiory i wnioskować na ich podstawie. Proste dla człowieka zdanie „Jan jest synem Marii” generuje ogromną liczbę zależności w świecie realnym, których maszyna nie jest w stanie samodzielnie się „nauczyć” (np. Jan jest mężczyzną, mężczyzna należy do kategorii „ludzie”, Jan nie jest kobietą, Maria urodziła przynajmniej jedno dziecko, Jan jest młodszy od Marii, Jan ma nieznanego ojca, Maria jest kobietą, Jan i Maria stanowią biologiczną rodzinę, Jan urodził się w nieokreślonym czasie itd.). Z pozoru banalny przykład komplikuje się, gdy dołożymy do niego kategorię szerszą od „człowieka” i trudno definiowalną jak na przykład „prawda”. W tym kontekście algorytm musiałby umieć poprawnie wywnioskować czy faktycznie „Jan jest synem Marii”, przetwarzając niewyobrażalną ilość danych na temat obu tych osób, poprawnie definiując klasy (prawda, człowiek) i podklasy (mężczyzna i kobieta, syn, rodzina) na podstawie samych właściwości danych. Zadanie to wydaje się arcytrudne, choć cały czas trwają prace nad udoskonalaniem podobnych technologii. 142 Więcej o projekcie można przeczytać na stronie https://www.w3.org/2001/sw/. Prace nad sztuczną inteligencją, potrafiącą skutecznie operować w semantycznie złożonej rzeczywistości, budzą emocje nie tylko w świecie naukowym, ale w całym społeczeństwie. Powodem obaw może być brak formalnych środków kontroli programistów i firm143 oraz nietransparentność zasad tworzenia i wykorzystywania inteligentnych algorytmów144, które już dziś, jak zauważa Jan Kreft: „kreują społeczną rzeczywistość, wspólną wiedzę i systemy przekonań”145, co prowadzi do redefinicji władzy tradycyjnych mediów, które ustępują przed wyszukiwarkami i mediami społecznościowymi. Geneza problemów związanych z przejrzystością prac nad sztuczną inteligencją, czy szerzej ochrony danych w sieci, może wynikać z charakteru samego Internetu, jako medium w dużej mierze trybalnego146 i anarchicznego147. Plemienność może tłumaczyć skupianie się na powstawaniu algorytmów tylko w ramach jednej (własnej) organizacji działającej w sieci, zaś źle pojmowana wolność Internetu, może wzmacniać przekonanie o dowolności w kształtowaniu sztucznej inteligencji, co wydaje się wątpliwe, także ze względów etycznych148. Wątpliwości tej samej natury budzą wielkie zbiory danych utajniane i jednocześnie wykorzystywane przez międzynarodowe korporacje i władze państwowe. Mogą one stanowić szansę na przykład na skuteczniejsze zapobieganie przestępstwom i innym zagrożeniom, ale mogą też posłużyć do personalnych ataków, czy próby wpływania na decyzje całych społeczeństw. Według Witolda Głowackiego zupełny brak regulacji prawnych oraz gromadzenie olbrzymich ilości danych o użytkownikach przez niekontrolowane zewnętrznie monopolistyczne organizacje, jak Google i Facebook może prowadzić do sytuacji, w której internetowa prywatność stanie się „odpłatną usługą premium”, a „wolność realnego wyboru przeglądanych treści, będzie dostępna tylko dla bogaczy 143 Największe środki na badania nad sztuczną inteligencją przeznacza Google, a konkretnie organizacja nazwie Alphabet, powołana do życia w 2015 roku i będąca właścicielem największej na świecie wyszukiwarki. Jednym z celów, jakie stawia sobie organizacja jest stworzenie sztucznej inteligencji. W mediach wielokrotnie poddawano krytyce całkowite utajnianie jej prac w tym zakresie. 144J. Kreft, Redefinicja władzy mediów – rola algorytmów, „Media, biznes, kultura, t. 1, Media w procesie zmian - etyka i komunikacja”, Wyd. Uniwersytetu Gdańskiego, Gdańsk 2018, s. 133. 145Ibidem s. 121. 146 R. Szczepaniak, „Plemiona sieci”. Internet jako medium społeczne i kulturowe, „Zeszyty Prasoznawcze”, t. 58, nr 1(221), Kraków 2015, s. 203. 147 Internet jaki dziś znamy jest środowiskiem anarchistycznym z punktu widzenia technologicznego. Swoje źródło bierze w zimnowojennej, koncepcji wojskowej skupiającej się wokół sieci ARPANET i Paula Barana. Jej celem było połączenie ze sobą wojskowych komputerów w taki sposób, żeby dane na nich zgromadzone przetrwały, nawet w przypadku wyeliminowania przez wrogów jednego lub kilku centrów zarządzania, przy użyciu broni atomowej. 148 E. Selinger, P. Lin, Inside Google’s Mysterious Ethic Board, „Forbes”, [dostępny online:] https://www.forbes.com/sites/privacynotice/2014/02/03/inside-googles-mysterious-ethics-board/#efc8 72848cf [dostęp 1.12.19r.]. i ekspertów”149. Ta pesymistyczna wizja uzasadniona jest tym, że już dziś Google i Facebook posiadają spersonalizowane informacje np. na temat preferencji wyborczych swoich użytkowników. Można sobie wyobrazić sytuację, w której firmy te wpływają na wyniki wyborów, przeprowadzając kampanię mobilizacyjną skierowaną do wyborców tylko jednej opcji politycznej150. 149 W. Głowacki, Internet 4.0? Może już nawet powstaje, w „Polska The Times”, [dostępny online:] https://polskatimes.pl/internet-40-moze-juz-nawet-powstaje/ar/c3-10582858 [dostęp: 21.11.19r.]. 150 J. Snoch. 13 Rosjan oskarżonych o wpływanie na wyniki wyborów w USA, „Komputer Świat”, [dostępny online:] https://www.komputerswiat.pl/aktualnosci/wydarzenia/13-rosjan-oskarzonych-o-wplywanie-na-wyniki-wyborow-w-usa/2ky8fr8 [dostęp 12.11.19r.]. Jak dotąd nie udało się opracować algorytmów sztucznej inteligencji, które miałyby zdolność do ontologicznego poznania i semantycznej dyferencjacji rzeczywistości. Warto w tym miejscu odnotować, że istniejące algorytmy posiadają pewne cechy właściwe dla sieci kontekstualnej. Przykładem może być aplikacja Google Now, która jest osobistym „asystentem” odbiorców. Wykorzystując inteligentne algorytmy, program podpowiada użytkownikowi m.in. kiedy ma iść do pracy, jakie połączenie komunikacji miejskiej będzie optymalne, aby się nie spóźnił, jaka pogoda jest w jego okolicy, informacje o tematyce interesującej użytkownika (w oparciu o Google News), czy przypomina o wydarzeniach zapisanych w elektronicznych kalendarzach. Innym przykładem wykorzystywanych współcześnie inteligentnych algorytmów, są serwisy oferujące muzykę online, jak Spotify czy Deezer. Podpowiadają one odbiorcom nowe utwory, identyfikując ich muzyczne gusta na podstawie wcześniej odsłuchanych piosenek. Popularność obu serwisów może świadczyć o tym, że algorytm dobrze wypełnia swoje zadanie. Jako kolejny przykład podać można Asystenta Google, który jest obecnie najbardziej rozbudowanym i dostępnym bezpłatnie algorytmem, z którym można prowadzić rozmowę. Program ten wykorzystuje dane zgromadzone przez Google oraz informacje zawarte w Wikipedii. Sterowany głosem (językiem naturalnym) może wysyłać wiadomości, nawiązywać połączenia, włączać lub wyłączać poszczególne funkcje urządzenia, tłumaczyć słowa na inne języki, wskazać najbliższe restauracje, sklepy, przypominać o zaplanowanych wydarzeniach, tworzyć listy, zapisywać myśli, odpowiadać na pytania o pogodę, bieżące wiadomości, fakty i wydarzenia historyczne. Algorytm wyposażono również w funkcje opowiadania żartów, czy śpiewania. W wersji polskiej Asystent Google dostępny jest od początku 2019 roku. Ciekawostką jest fakt, że wersję polską tworzą Polacy, dzięki czemu potrafi on rozpoznać związki frazeologiczne charakterystyczne tylko dla języka polskiego i odpowiednio na nie reagować. Algorytm na Zachodzie ma więcej rozbudowanych funkcji, można się spodziewać, że podobne rozwiązania trafią z czasem do polskich użytkowników151. 151 Asystent Google. Możliwości, [dostępny online:] https://assistant.google.com/explore?hl=pl_pl [dostęp 22.10.19r.]. 152 A. Shah, P.V.K. Raja, Smart Mobile TV in the Technological Phones Integrating with cloud Based Service Social Media Service, „International Journal of Research in Science & Technology”, vol. 3/8, 2017 s. 862. Innym zjawiskiem charakterystycznym dla sieci trzeciej generacji, jest rozwój Internetu rzeczy, którego przejawem jest coraz częstsze podłączanie do sieci urządzeń, kilkanaście lat temu powszechnie produkowanych jako analogowe. Sytuacja ta implikuje stadium rozwoju datafikacji, czyniąc kwantyfikowalnymi dane, do których wcześniej naukowcy nie mieli dostępu. Przykładem takiej technologii będą telewizory wykorzystujące technologię smart TV. Współcześnie obserwujemy postępującą integrację urządzeń mobilnych, komputerów osobistych i telewizorów, które dzięki algorytmom przetwarzającym dane, personalizują treści dostarczane użytkownikom, jak seriale, filmy, czy krótkie nagrania wideo152. W ramach Internetu rzeczy funkcjonują urządzenia smart, zakładane na ręce lub nogi, pełniące funkcje uproszczonych telefonów, aparatów do mierzenia podstawowych funkcji życiowych, geolokalizatorów przekazujących dane dotyczące przebytych odległości i ulubionych tras. Innymi (już nieco mniej oczywistymi) przykładami będą lodówki (monitorujące stan zapasów i automatycznie zamawiające kończące się produkty w sklepie internetowym) i pralki (których pracę można kontrolować za pomocą aplikacji na urządzenia mobilne). Internet rzeczy obejmuje również procesy automatyzacji w przemyśle. Nauki ekonomiczne opisują nową fazę rozwoju, nazywając ją czwartą rewolucją przemysłową (przemysłem 4.0). Wyróżnikiem pierwszej było wykorzystanie w produkcji i transporcie maszyn parowych (koniec XVII-XIX w.), druga wiązała się z wprowadzeniem elektryczności do fabryk (początek XX w.), trzecia to era komputerów (lata 70 XX w.). Czwarta rewolucja prowadzi do zaniku barier między ludźmi i maszynami oraz wykorzystania wniosków płynących z analizy big data w produkcji. Po raz pierwszy określenia „przemysł 4.0” użyto w 2011 roku w strategii gospodarczej przyjętej przez niemiecki rząd. W 2013 roku opublikowano raport poruszający kwestię możliwości rozwoju przemysłu w kontekście wykorzystania inteligentnych algorytmów do analizy danych, które mogą posłużyć do precyzyjnego odpowiadania na zindywidualizowane potrzeby odbiorców, optymalizacji procesów podejmowania decyzji, dostarczania usług związanych z nowymi technologiami, czy projektowania adekwatnych modeli reakcji na zmiany demograficzne153. Jednym z założeń przemysłu 4.0 jest opracowanie modelu, w którym inteligentne algorytmy uzyskają możliwość decydowania o procesach produkcji, na bieżąco reagując na zapotrzebowanie powstające na rynku i dostosowując oferty indywidualnie do potrzeb klientów. 153 H. Kagermann, W. Wahlster, J. Helbig, Recommendations for implementing the strategic initiative Industrie 4.0, Wyd. National Academy od Science and Engineering, na zlecenie Ministerstwa Edukacji i Nauki Niemiec, 2013, s. 15-16. 154 Rozgraniczenie dat rozpoczęcia nowych „er Internetu” jest umowne. Z pewnością nawet w 2020 roku nie można mówić o w pełni ukształtowanym Internecie semantycznym, jednak w 2016 roku można było zaobserwować jego pierwsze przejawy. Dla usystematyzowania wcześniejszych rozważań na temat przeobrażeń Internetu w Tabeli 4. zestawiam główne wyróżniki opisujące WEB 1.0, WEB 2.0 i WEB 3.0. Tabela 4. Charakterystyczne cechy WEB 1.0, WEB 2.0 i WEB 3.0. WEB 1.0 WEB 2.0 WEB 3.0 1996 r. 2006 r. 2016 r. (?)154 Strona internetowa Media społecznościowe Internet semantyczny Pasywny odbiór (czytanie) Czytanie i tworzenie treści (prosumpcja) Dopełnianie treści i wykonywanie zadań przez algorytmy Przekazywanie komunikatów Interakcja Immersyjność jako zanurzanie odbiorców w technologię Miliony użytkowników Ponad miliard użytkowników Miliardy użytkowników, docelowo wszyscy ludzie na Ziemi Techniczna publikacja Partycypacja Zrozumienie użytkowników przez algorytmy Łączy informacje Łączy ludzi Łączy wiedzę Mózg i oczy Mózg, oczy, uszy, głos i serce (pasja) Wszystkie zmysły, nogi, ręce – pełna wolność Podstawowy, bierny odbiór Łączenie aplikacji i tworzenie społeczności Internet zarządzany przez algorytmy Statyczne strony Strony interaktywne Strony 3D Strony domowe Portale horyzontalne i wertykalne155 Gry, edukacja, media – łączenie danych Nadawca zinstytucjonalizowany Nadawca prywatny Brak nadawcy, aplikacje same łączą dane i są dla odbiorców ramą, która podpowiada im formy aktywności Statyczna treść Komunikacja Sztuczna inteligencja Internet nadawców Internet odbiorców Internet odbiorców, usług i rzeczy 155 Zaliczenie portali horyzontalnych do Internetu drugiej generacji wydaje się uprawnione, jednak nie oznacza, że w dobie sieci semantycznej zostaną one zamknięte. Jak wykazuję w dalszej części pracy, portale same próbują tworzyć rozwiązania zaczerpnięte z teorii bliskich kontekstualności sieci, co uprawnia twierdzenie, że w przyszłości nie zanikną, ale wyewoluują do nowych, bardziej kontekstualnych form. Źródło: opracowanie własne na podstawie U. Naik, D. Shivalingaiah, „Comparative Study of Web 1.0, Web 2.0 and Web 3.0”. Niektórzy autorzy sugerują, że żyjemy w dobie narodzin Internetu 4.0. Amerykański specjalista z dziedziny marketingu Seth Goodin, opisując możliwe implikacje wejścia w czwartą erę sieci zauważa, że daleko posunięta kontekstualność rozwiązań wynikających z wykorzystania big data całkowicie odbierze użytkownikom prywatność, a jednocześnie znacznie ułatwi im życie. Autor ocenia, że w przyszłości Internet pozwoli na zawiązywanie jeszcze ściślejszych relacji z rodziną i kręgiem znajomych, poprzez uzyskanie głębszego wglądu w ich życie, aktywności, posiadanych zasobów, które można współdzielić. Wizja WEB 4.0 zakłada, że użytkownik poszukujący informacji na temat interesującego go problemu, automatycznie otrzyma podpowiedź o tym, że jego sąsiad/znajomy zmagał się z podobnym zagadnieniem i rozwiązał go wykorzystując konkretne zasoby istniejące w świecie wirtualnym bądź realnym. Algorytmy sieci czwartej generacji mają stać się swoistymi „sekretarzami”, umawiać znajomych na spotkania, współtworzyć kalendarze z planami, wysyłać samodzielnie powiadomienia o spóźnieniu, lokalizacji, aktualnych aktywnościach użytkownika156. Takie wykorzystanie algorytmów oznaczałoby de facto zrzeczenie się prywatności w sieci, pozwalając użytkownikom na wygodniejsze w wielu aspektach życie. 156 S. Gordon, Web4, [dostępny online:] https://seths.blog/2007/01/web4/ [dostęp: 21.11.19r.]. 157 K. Kopecka-Piech, Technologie pierwszego kontaktu. Smartfonizacja życia codziennego młodych użytkowników „Media a społeczeństwo. Współczesne problemy i wyzwania”, red. K. Konarska, P. Urbaniak, Wydawnictwo Uniwersytetu Wrocławskiego, Wrocław 2019, s. 139. 158 A. Koźlak, Sharing economy jako nowy trend społeczno-gospodarczy, „Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu”, nr 489 Ekonomia, Wrocław 2017 s. 171. 159 Ibidem, s. 172. 160 J. Ziobrowska, Sharing economy jako nowy trend konsumencki, red. U. Kalina-Prasznic „Własność w prawie i gospodarce”, E-Wydawnictwo. Prawnicza i Ekonomiczna Biblioteka Cyfrowa. Wydział Prawa, Administracji i Ekonomii Uniwersytetu Wrocławskiego, Wrocław 2017, s. 281. Ewolucja technologii i algorytmów wykorzystywanych w Internecie doprowadziła do przeobrażeń w trendach gospodarczych, społecznych oraz kulturowych. Dowodem na powyższe stwierdzenie może być rozwój ekonomii współpracy (z j. ang. sharing economy), która polega na wspólnym wykorzystaniu i dzieleniu się posiadanymi zasobami. Koncepcja jest znana od wielu lat, jednak jej rozkwit można skorelować z transformacją technologiczną (mam tu na myśli miniaturyzację urządzeń i powiązaną z nią smartfonizację157 społeczeństwa i powstawaniem nowych społeczności internetowych158. Aleksandra Koźlak zauważa, że z powodu dynamicznego rozwoju nowych mediów określenie granic ekonomii współpracy jest bardzo trudne, o ile wręcz niemożliwe. Autorka dodaje, że atrakcyjność sharing economy „wynika z tendencji społeczeństwa do korzystania z pewnych dóbr lub usług w razie potrzeby (zazwyczaj na żądanie), a nie posiadania ich na własność. Idea sprowadza się więc do tego, że nie trzeba mieć, by korzystać”159. Z perspektywy ekonomicznej w badaniach prezentuje się pojęcia, takie jak gospodarka oparta na współpracy, konsumpcja oparta na dostępie, współdzielona konsumpcja, gospodarka opierająca się na kontaktach między poszczególnymi osobami oraz rozwój platform służących do komunikacji konsumentów z dostawcami dóbr i usług. Wszystkie powyższe zjawiska są akcelerowane przez rozwój rozwiązań właściwych sieci semantycznej oraz szerokie wykorzystywanie platform społecznościowych160. Ekonomia współpracy wywodzi się z przekonania, że ważniejszy jest sam dostęp do konkretnej rzeczy, niż posiadanie jej na własność. Justyna Ziobrowska zauważa, że poczynając od 2008 roku na świecie i 2010 roku w Polsce, w przestrzeni społecznej obserwujemy wzrost zainteresowania ideami pożyczania, barteru, udostępniania innym własnych zasobów, takich jak dobra materialne, środki finansowe, umiejętności i czas161. W tym kontekście zmiany postaw wśród konsumentów, mogą być skorelowane z ewolucją Internetu, ponieważ zachowania obserwowane w sieci (współdzielenie, tworzenie społeczności) zaczęły przenikać do świata realnego w postaci sharing economy. 161 Ibidem s. 282. 162 S. Michalczyk, Pojęcie mediatyzacji w nauce o komunikowaniu, red. S. Michalczyk, M. Kolczyński, M. Mazur, „Mediatyzacja kampanii politycznych”, Wyd. Uniwersytetu Śląskiego, Katowice 2009, s. 24. 163 P. Willis, Foot Soldiers of Modernity: The Dialectics of Cultural Consumption and the 21st-Century School, „Harvard Educational Review”, nr 73(3), 2003, s. 392. Sieć semantyczna, przemysł 4.0, ekonomia współdzielenia i powiązana z nimi datafikacja są zjawiskami, które można wpisać w szerszy kontekst kultury partycypacji (konwergencji, współdzielenia). Nowe technologie teleinformatyczne umożliwiły wszystkim użytkownikom Internetu na niespotykaną wcześniej skalę dostępu do danych, zasobów, informacji i wiedzy, co przyspieszyło proces mediatyzacji społeczeństwa (rozumiany jako wpływ mediów i komunikacji na rozwój ludzkiej tożsamości, kultury oraz form wzajemnego współżycia162), skutkując ostatecznie uaktualnieniem paradygmatów współczesnej kultury. Opisując powyższe zjawisko Paul Willis stwierdza, że „w kulturze partycypacji młodzi ludzie w sposób kreatywny odpowiadają na nadmiar sygnałów elektronicznych oraz towarów kulturowych w sposób, który zaskakuje ich twórców poprzez odnajdowanie znaczeń i tożsamości, których nie mieli zamiaru wytworzyć oraz przeciwstawianie się prostym receptom (panaceum) na życie, które są nieskuteczne, są zwykłą manipulacją lub wynikają z pasywnej postawy konsumentów”163. Powyższa definicja kultury partycypacji wskazuje na kilka kluczowych faktów: • współczesna rzeczywistość charakteryzuje się nadmiarem danych, • Internet upowszechnił dostęp do dóbr kultury, zasobów, informacji i wiedzy, • ludzie otrzymują dostęp do olbrzymiej liczby aplikacji służących przetwarzaniu danych, wytworzonych przez inne osoby, organizacje lub instytucje, • najlepiej nowe technologie i trendy kulturowe przyswajają ludzie młodzi, • użytkując aplikacje odbiorcy odnajdują dla nich znacznie więcej zastosowań, niż początkowo zakładali ich twórcy, • wcześniejsze paradygmaty zachowania oraz tradycyjne modele życia, rodziny, społeczeństwa są kwestionowane jako nieskuteczne, zmanipulowane, nieprzystające do współczesności i wynikające z pasywnej postawy konsumentów (użytkowników mediów). Interpretacja definicji Willisa w kontekście rozwoju sieci semantycznej, eksponuje fakt zapośredniczenia zmian kulturowych w aktywnej roli odbiorców, korzystających z technologii opartych na wielkich zbiorach danych. Inny aspekt problemu opisuje Henry Jenkins, który rozwój kultury partycypacji wiąże z mediami społecznościowymi. Autor wyróżnia najważniejsze cechy zjawiska, do których zalicza: • brak przeszkód dla rozwoju sztuki i obywatelskiego zaangażowania, • duże możliwości i wsparcie dla tworzenia oraz dzielenia się wytworami innych osób, • powstawanie nieformalnych relacji mentorskich, • powszechna wiara, że wkład jednostki ma znaczenie, • konstytuowanie się nowych więzi społecznych164. 164 H. Jenkins, R. Puroshotma, K. Clinton, M. Weigel, A.J. Robinson, Confronting the Challenges of Participatory Culture: Media Education for the 21st Century, Wyd. MacArthur, 2006, s. 7. [dostępny online:] http://www.newmedialiteracies.org/wp-content/uploads/pdfs/NMLWhitePaper.pdf [dostęp: 17.11.19r.]. 165 A. M. Kaplan, M. Haenlein, Users of the world, unite! The challenges and opportunities of Social Media, „Business Horizons” nr 53, 2010 s. 59. Przytoczone definicje utożsamiają rozwój kultury partycypacji z powstaniem i dyfuzją nowych rozwiązań technologicznych (współcześnie technologii mobilnych, sieci semantycznej, big data oraz mediów społecznościowych), co skutkuje zacieraniem się granic między pasywnym odbiorcą a aktywnym nadawcą treści. Sytuacja ta, implikuje funkcjonowanie w obiegu medialnym dużej liczby zasobów wytwarzanych przez nadawców nieformalnych (user generated content), współcześnie również przez algorytmy. Inną cechą charakterystyczną dla kultury partycypacji będzie demokratyzacja mediów społecznościowych, którą Andreas Kaplan i Michael Haenlein opisują jako kolejny krok do demokratyzacji społeczeństw oraz zasypania podziału technologicznego, między krajami rozwijającymi się i rozwiniętymi165. David Foulger przedstawił model komunikowania, który można uznać za charakterystyczny dla kultury partycypacji. Opisuje on rolę nadawców i odbiorców, pozwalając na zrozumienie podwójnej roli użytkowników oraz wpływu kultury, języka i mediów na proces komunikowania i dyfuzji treści. Model zaproponowany przez Foulgera przedstawia Ilustracja 4. Ilustracja 4. Model komunikowania zaprezentowany przez Davida Foulgera. C:\Users\rcien\AppData\Local\Microsoft\Windows\INetCacheContent.Word\moj model.gif Źródło: D. Foulger, An Ecological Model of the Communication Process. Model Foulgera pozwala osadzić proces komunikacji w szerokim kontekście, uwzględniającym dostęp do kultury, powstawanie nowych społeczności (w tym tych w sieci) i nowych charakterystycznych dla nich kodów językowych. Wskazuje również na zapośredniczenie mediów w kulturze, komunikacji w języku oraz zakłada możliwość reagowania użytkowników na treści produkowane w mediach, co sytuuje ich w nowej roli: aktywnych twórców treści166. 166 D. Foulger, An Ecological Model of the Communication Process, [dostępny online:] http://davis. foulger.info/papers/ecologicalModelOfCommunication.htm [dostęp: 22.10.19r.]. 167 Ponieważ współcześnie każdy użytkownik sieci ma możliwość aktywnego uczestnictwa w procesach wytwarzania i dyfuzji treści, m.in. poprzez dostarczanie danych umożliwiających jej spersonalizowany dobór (każdy użytkownik może być świadomie lub nie prosumentem), w dalszej części pracy zasadne wydaje się używanie obu tych określeń zamiennie. 168 A. Toffler, Trzecia fala, tłum. Ewa Wojdyło, Wyd. Studio Emka, Warszawa 2001, s.14. Założenie, że dawni bierni odbiorcy są współcześnie aktywnymi nadawcami treści w Internecie, rodzi pytanie o stopień ich zaangażowania w proces tworzenia i dyfuzji zasobów. Jedną z propozycji wyjaśnienia powyższego fenomenu można odnaleźć w koncepcji Alvina Tofflera, który przedstawił definicję prosumenta167. Według autora prosumentem jest osoba, która bierze udział w procesie produkcji towaru lub wykonania usługi, poprzez dostarczanie informacji zwrotnej do producenta lub innych konsumentów np. w postaci opinii o produkcie/usłudze168. Powyższą teorię rozwinął Axel Bruns, który zaproponował nowe określenie: „produser”. W opinii autora „produser” to osoba zaangażowana nie tylko w tworzenie treści w sieci, ale w wielkie projekty internetowe, które mogą posiadać własne kody, ideologie oraz prawa. Jako przykład takiej społeczności można podać twórców i redaktorów Wikipedii, strony oferujące dane dostępne w systemie open source, czy interaktywne gry komputerowe169. 169 A. Bruns, Blogs, Wikipedia, Second Life, and Beyond: From Production to Produsage, Wyd. Peter Lang, Nowy Jork 2008, s. 9. 170 M. Szpunar, Nowe- stare..., op.cit. s. 191. Modele zaangażowania użytkowników w wytwarzanie i dyfuzję treści w sieci mogą się od siebie znacząco różnić. Powodów takiego stanu rzeczy naukowcy doszukują się w wieku, poziomie wykształcenia, sytuacji materialnej, uwarunkowaniach społecznych i charakterologicznych. Charlene Li i Josh Bernott analizując powyższy problem zaproponowali drabinę aktywności online170. Autorzy podzielili internautów na kategorie oraz przyporządkowali im konkretne zachowania, które zaprezentowano w Tabeli 5. Tabela 5. Drabina aktywności online wg Charlene Li i Josha Bernotta. TYP PRZEWIDYWANE ZACHOWANIA Twórcy Aktywnie uczestniczą w wytwarzaniu treści online, tworzą własne strony, blogi, vlogi, nagrywają muzykę i filmy, komentują, dzielą się swoimi utworami Krytycy Nie tworzą własnych treści, ale chętnie oceniają prace innych, recenzują, włączają się w dyskusje na forach internetowych, wypełniają ankiety Kolekcjonerzy Tagują strony internetowe, fotografie i posty w mediach społecznościowych, głosują na określone strony Przyłączający się Aktualizują jedynie profile w mediach społecznościowych Widzowie Czytają i oglądają wszelkie zamieszczane w sieci treści Nieaktywni Nie wykazują aktywności twórczej w Internecie Źródło: opracowanie własne na podstawie M. Szpunar „Internet między tworzeniem nowych modeli komunikacyjnych a reprodukowaniem schematów komunikowania masowego”. Charleine Li w swoich pracach zdefiniowała „piramidę zaangażowania” w Internecie. Dzieli ona użytkowników na opiekunów, producentów, komentujących, dzielących się i oglądających. Zdaniem autorki najwyższym przejawem zaangażowania w tworzenie treści w sieci jest moderacja forum lub edycja Wikipedii, których to zadań podejmują się najbardziej zaangażowani internauci171. 171 C. Li, Engagement Pyramid, [dostępny online:] https://community.lithium.com/t5/Lithium-s-View-Blog/Community-Participation-Ladder-or-Pyramid/ba-p/838 [dostęp: 24.10.19r.]. 172 M. Szpunar, Nowe-stare…, op. cit. s. 84. 173 WirtualneMedia, 90 proc. polskich internautów korzysta z social media. Liderem Facebook, w górę YouTube, [dostępny online:] http://www.wirtualnemedia.pl/artykul/90-proc-polskich-internautow-korzysta-z-social-media-liderem-facebook-w-gore-youtube# [dostęp: 23.10.19r.]. 174 R. M. Anderson, R. M. May, Infectious Diseases of Humans, Wyd. Oxford University Press, Oxfrod 1991, s. 27. Przytoczone badania sugerują, że nie każdy użytkownik Internetu jest jednocześnie wytwórcą treści. Powyższą problematyką zajmował się Peter Lunenfeld, który zaproponował „Regułę 1%”. Według jego koncepcji 1% internautów tworzy treści, 9% je modyfikuje i udostępnia, zaś 90% biernie przegląda treści172. Analizując zagadnienie warto jeszcze raz podkreślić, że modele korzystania z sieci ulegają bardzo szybkim przeobrażeniom, a wpływ na wyniki badań w tym zakresie mogą mieć przyjmowane założenia metodologiczne. Jako przykład można podać badania prowadzone przez IRCenter, które wskazały, że w 2016 roku 47% polskich internautów było aktywnie zaangażowanych w tworzenie treści na portalach społecznościowych173. Taki rezultat analiz może wynikać z wykorzystanej przez IRCenter metodologii, zawężającej obszar badawczy jedynie do social mediów oraz uwzględniającej jako „aktywne wytwarzanie treści” wszystkie działania użytkowników mediów społecznościowych, m.in. publikowanie zdjęć na swoich prywatnych profilach. Inny sposób rozumienia i klasyfikacji sposobów zaangażowania użytkowników w dyfuzję, można scharakteryzować odwołując się do osiągnięć naukowych z dziedziny epidemiologii. W badaniach nad rozprzestrzenianiem się chorób w społeczeństwie wprowadzono podział na: osoby zdrowe, osoby zagrożone infekcją, osoby zainfekowane i osoby wyleczone174. Wydaje się, że po dokonaniu pewnych modyfikacji analogiczną strukturę można zastosować w dyfuzji treści. Osoby zdrowe nie będą miały możliwości zapoznania się z informacją. Osoby zagrożone infekcją będą miały możliwość kontaktu z informacją, zaś osoby zainfekowane będą miały z nią kontakt i będą przekazywać ją dalej. Problematyczne może być zdefiniowanie osób wyleczonych, gdyż zależnie od kontekstu działań „wyleczenie” może mieć pozytywne lub negatywne konotacje. W języku polskim lepszym określeniem wydaje się mówienie o wyniku/skutku dyfuzji, którym może być podjęcie określonych działań np. tworzenie nowych treści. Powyższe podejście zakłada, że badania nad dyfuzją mogą umożliwić wykrycie i eliminację potencjalnych zagrożeń, jeszcze na etapie komunikacji w sieci. W kontekście przytoczonych wyżej definicji i badań można wyróżnić następujące poziomy zaangażowania użytkowników (% udział polskich użytkowników za badaniami IRCenter175): 175 W. Niżnik, Social media 2016, Badania IRCenter, [dostępny online:] https://ircenter.com/social-media-2016/ [dostęp: 16.10.19r.]. • osoby nie korzystające z mediów społecznościowych; stanowiące ok. 10% polskich użytkowników Internetu; • osoby mające możliwość zapoznania się z treściami publikowanymi w mediach społecznościowych (widzowie); stanowiące ok. 84% internautów; • osoby, które angażują się w komentowanie i powielanie treści; stanowią ok. 47% internautów w Polsce; • osoby tworzące treści w Internecie, które stanowią 15% wszystkich internatów; • osoby, które korzystały z mediów społecznościowych i świadomie z nich zrezygnowały – ok. 10-15%. Konkludując teoretyczne rozważania nad użytkownikami/prosumentami można stwierdzić, że stworzenie metodologicznych ram do badań nad sposobami w jaki wykorzystują oni sieć, jest utrudnione ze względu na dynamikę zmian technologicznych, skutkującą niedookreśleniem stadium konwergencji medialnej. W celu usystematyzowania wcześniejszych rozważań warto przedstawić kluczowe cechy charakteryzujące prosumentów. Współczesny użytkownik Internetu: • jest współuczestnikiem przemian kulturowych, społecznych i gospodarczych, których może być świadom lub nie; • ma możliwość prostego połączenia się z miliardami ludzi na całym świecie; • ma dostęp do big data za pośrednictwem aplikacji (programów) zainstalowanych na różnych urządzeniach technicznych; • ma możliwość zintegrowania różnych aktywności życiowych ze światem Internetu, w tym Internetu rzeczy; • jest prosumentem zainteresowanym nie tylko pasywnym odbiorem treści, ale także jej aktywnym współtworzeniem (user generated content) za pośrednictwem mediów społecznościowych, aplikacji, gier i innych urządzeń podłączonych do sieci; • uczestniczy w szeroko rozumianych procesach dyfuzji zasobów (treści), informacji i wiedzy, poprzez zapośredniczenie technologiczne; • w sposób świadomy lub nie dzieli się z korporacjami medialnymi danymi na temat swoich wyborów i aktywności w Internecie; • jest coraz bardziej świadomy możliwości współpracy z innymi użytkownikami sieci na różnych płaszczyznach (sharing economy); • jest coraz bardziej świadomy instytucjonalizacji nadawców, przez co może tracić do nich zaufanie, rolę dystrybutorów treści coraz częściej pełnią grupy z którymi się identyfikuje lub liderzy opinii. 1.4. Propozycja modelu dyfuzji danych, informacji i wiedzy w środowisku big data Omówione w poprzednich częściach pracy teorie, skłaniają do postawienia pytania o możliwość zaprojektowania modelu współczesnych procesów dyfuzji treści (danych, zasobów, informacji i wiedzy) w dobie datafikacji (big data), rozwoju technologicznego (software i hardware176) oraz związanych z nimi przemian spłeczno-kulturowych (sharing economy, partycypacja). Propozycja w swoim centralnym punkcie powinna postawić użytkownika (odbiorcę, prosumenta), który bierze aktywny lub pasywny udział w procesach dyfuzji i budowaniu sieci semantycznej, jeśli tylko wykorzystuje Internet w komunikacji. Na Ilustracji 4. zaprezentowano propozycję takiego modelu, który może pomóc w połączeniu i usystematyzowaniu omówionych teorii. 176 Hardware to zbiorcze określenie urządzeń, wykorzystywanych współcześnie w celach komunikacyjnych i rozrywkowych, do których zaliczyć można m.in. komputery, smartfony, tablety, laptopy. Software będą to wszystkie rodzaje programów i algorytmów, które mogą być instalowane i użytkowane na w/w urządzeniach. Ilustracja 4. Propozycja modelu dyfuzji danych, informacji i wiedzy w sieci semantycznej, wykorzystującej potencjał nowych technologii i big data. Źródło: opracowanie własne. Propozycja modelu zakłada, że żaden proces dyfuzji nie może odbywać się poza kulturą. Poszerzanie zakresu możliwych do współdzielenia zasobów medialnych i fizycznych, wpisuje się w ontologiczne założenia kultury partycypacji, opartej na dyfuzji treści, która coraz częściej wymaga zapośredniczenia technologicznego. Powyższe założenia prowadzą do wniosku, że każde działanie zaprezentowane na schemacie ma bezpośredni lub pośredni wpływ na kulturę. W modelu przedstawiono wielofazowy proces komunikacji i dyfuzji treści zachodzący przy wykorzystaniu big data, który jednocześnie wzbogaca serwery o nowe dane. Aby dyfuzja mogła przebiegać w sposób prawidłowy, niezbędne jest wykorzystanie urządzeń (hardware) oraz algorytmów (software) pośredniczących między prosumentem a chmurą danych i innymi odbiorcami. Nie wyklucza to komunikacji bezpośredniej między prosumentami, co zaznaczono na schemacie, łącząc użytkownika z urządzeniami i algorytmami wykorzystywanymi przez innych odbiorców. W tym aspekcie model uwypukla możliwość dyfuzji treści w sposób bezpośredni, zarówno poprzez rozmowy telefoniczne i komunikatory internetowe, jak i „tradycyjne” formy komunikacji (spotkania, listy177). Dyfuzja treści w środowisku Internetu zakłada konieczność wykorzystania urządzeń pośredniczących, a to przekłada się na akcelerację procesów powstawania społeczności osób o podobnych celach, poglądach, zainteresowaniach, wykorzystujących sieć w procesie komunikacji. Warto odnotować, że wykorzystywane przez użytkowników narzędzia, mogą służyć zarówno do intensyfikacji, jak i zmniejszenia częstości spotkań bezpośrednich, jednak badania nad tym zagadnieniem nie wchodzą w zakres mojej dysertacji. 177 Tradycyjne formy komunikacji również mogą podlegać datafikacji, jednak w znacznie mniejszym stopniu, niż formy zapośredniczone technologicznie. Na przykład do zbioru danych wejdzie liczba wysłanych tradycyjnych listów i paczek, czy liczba godzin rozmów telefonicznych. Do zbiorów big data nie można jak na razie „włączyć” danych dotyczących kontaktów bezpośrednich, pozostających jedynie w sferze prywatnej prosumentów, a ważnej dla dyfuzji informacji i wiedzy. Do badań nad zagadnieniami niepodlegającymi datafikacji, niezbędna pozostaje tradycyjna metodologia nauk społecznych. 178 M. Mikowska, Raport Polska jest mobi 2018, [dostępny online:] http://webcache.googleusercont ent.com/search?q=cache:SptoasxvdBcJ:jestem.mobi/2018/04/raport-polska-jest-mobi-2018-dopobrani a/+&cd=2&hl=pl&ct=clnk&gl=pl [dostęp 12.10.19r.]. Wykorzystywanie w modelu zwrotu „urządzenia i algorytmy” (hardware i software) jest uzasadnione opisywaną sytuacją komunikacyjną, jednak wymaga operacjonalizacji. Według Raportu „Polska jest mobi 2018”, przygotowanego dzięki współpracy firm z zakresu badań nad Internetem i mediami w Polsce, 88% ludności naszego kraju posiadało dostęp do sieci w swoich gospodarstwach domowych. Przywołane badania prezentują najpopularniejsze urządzenia i procent populacji, który je wykorzystuje. Będą to: • Smartfon – 83% • Laptop – 82% • Komputer stacjonarny – 51% • Tablet – 41% • Smart TV – 32% • Konsola – 21% • Serwis streamingowy wideo – 12% • Smartwach – 8% • Opaska fitness – 5%178. Warto odnotować, że powyższy raport nie uwzględnia w pełni rozwoju Internetu rzeczy. Można jednak z dużym prawdopodobieństwem założyć, że technologie takie jak podłączone do sieci lodówki, pralki lub inteligentne systemy zarządzania domem online, choć są coraz popularniejsze, to wciąż pozostają w Polsce marginalne i ich udział w generowaniu danych jest znikomy w porównaniu do pozostałych wymienionych urządzeń. Na potrzeby pracy do zbioru „urządzeń” wykorzystywanych w procesach dyfuzji zachodzącej w środowisku Internetu, zaliczam wszystkie wymienione wcześniej rozwiązania technologiczne, które umożliwiają komunikację przy wykorzystaniu sieci. Drugim wymagającym dookreślenia pojęciem jest „algorytm”, także program, aplikacja, która zainstalowana na urządzeniu umożliwia kodowanie i dekodowanie treści oraz ich prezentację w sposób zrozumiały dla użytkownika. Jak zauważa Magdalena Szpunar „doniosłość procesów związanych z algorytmizacją jest coraz dobitniej dostrzegana i artykułowana przez wielu uczonych”179. Badacze tego fenomenu zwracają uwagę na jego wieloaspektowość i piszą o „zwrocie algorytmicznym, „tożsamości algorytmicznej, „ideologii algorytmicznej”, czy „socjologii algorytmów”. Należy zgodzić się ze stwierdzeniem, że „analiza wpływu algorytmów powinna uwzględniać nie tylko technikalia, narzędziownię, ale musi być znacznie szersza i brać pod uwagę praktyki społeczne związane z użytkowaniem technologii”180. Powyższe względy uzasadniają szerokie rozumienie definicji wykorzystywanej w proponowanym modelu. Za „algorytm” uznaję zatem każdy przejaw aktywności programistów, pracujących samodzielnie lub w ramach dowolnej organizacji, który pozwala na kodowanie, dekodowanie i przesyłanie danych między chmurą (serwerami) a urządzeniami w ramach Internetu. Algorytmem będą wszystkie programy, aplikacje, strony , boty181, które do swojego działania potrzebują dostępu do Internetu. Przykładowo za algorytm w rozumieniu proponowanego modelu należy uznać przeglądarki internetowe, roboty tworzące treści w Internecie, komunikatory, portale internetowe, media społecznościowe, wyszukiwarki, algorytmy analizujące zachowanie użytkowników, gry z możliwością podłączenia do sieci, aplikacje do odsłuchiwania muzyki i filmów, czy inne aplikacje zapisujące dane w chmurze lub korzystające z tych danych. Algorytmy jako zjawisko wpływają na szerszy kontekst społeczny, polityczny, ekonomiczny i kulturowy, ponieważ stają 179 M. Szpunar, Kultura algorytmów, Wyd. Instytut Mediów, Dziennikarstwa i Komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków 2019, s. 23. 180 Ibidem, s. 24. 181 Bot jest to program, który wykonuje w sieci pewne czynności w zastępstwie człowieka. Może on dla przykładu porządkować dane, lub imitować rozmowę. się uczestnikami życia społecznego, zdolnymi do wpływania na decyzje ludzi i organizacji, które z nich korzystają182. 182 M. Mamak-Zdanecka, M. Stojkow, D. Żuchowska-Skiba, Społeczny wymiar algorytmizacji, „Humanizacja pracy. Technologiczno-społeczny wymiar sztucznej inteligencji. Władza algorytmów?”, nr 3(297), 2019 s. 10. 183 N.K. Hayles, Traumas of code, „Critical Inquiry”, vol. 33, nr 1, 2006, s. 142. 184 Ibidem. Optyka proponowanego modelu zakłada szczególny nacisk na technologie pośredniczące w procesie komunikowania oraz dyfuzji danych, informacji, zasobów i wiedzy między serwerami, algorytmami, urządzeniami a użytkownikami. Katherine Hayles zwraca uwagę na kognitywną moc algorytmu (nazywanego też często kodem). Autorka pisze, że jest on „jednocześnie systemem językowym oraz zarządzającym operacjami komputera, kod wchodzi w interakcje i wpływa na działania człowieka wyrażone somatycznie, na przykład w formie nawyków czy póz (…). Kod jest znakomicie przystosowany do pełnienia roli pośrednika w całym spektrum rozszerzonego systemu poznawczego człowieka”183. W tym ujęciu algorytmy „umożliwiają tworzenie nowych kanałów dyfuzji między świadomymi, podświadomymi i nieświadomymi procesami poznawczymi człowieka”184. Proponowany model opisuje rzeczywistość, w której programy stanowią konieczny pomost w dyfuzji między serwerami, na których przechowywane są dane a finalnymi użytkownikami, wykorzystującymi urządzenia techniczne w komunikacji. Przedstawiona w poprzednich częściach pracy definicja danych zakłada, że do ich zbioru należą m.in. dane otwarte, półotwarte i zamknięte, user generated content, informacje udostępniane przez użytkowników, informacje o ich zachowaniu i aktywności, dane geolokalizacyjne, medyczne, osobiste, fotografie, filmy. Powyższe dane zarejestrowane i przechowywane na serwerach w postaci cyfrowego kodu same w sobie nie przedstawiają żadnej wartości, stanowią bowiem ciągi logicznie usystematyzowanych liczb przechowywanych w ramach różnych zbiorów i katalogów. Dopiero wykorzystanie urządzeń i algorytmów pośredniczących umożliwia odbiorcom zapoznanie się z zasobem, jego przetworzenie i ewentualną dalszą dyfuzję w postaci informacji lub wiedzy. W centralnym punkcie proponowanego modelu znajduje się odbiorca (prosument), zamiennie nazywany użytkownikiem. Taki dobór definicji podkreśla możliwość jego aktywnego uczestnictwa w wytwarzaniu i dyfuzji treści w sieci, czym przyczynia się on do utrwalania i rozwoju kultury partycypacji. Model zakłada, że odbiorca/prosument posiada pewien zasób informacji i wiedzy, z których aktywnie korzysta i którymi może się dzielić z innymi osobami w sposób bezpośredni, lub zapośredniczony technologicznie. Na zakres dostępnych informacji i wiedzy wpływają urządzenia i algorytmy, które je powiększają, niezależnie od działań użytkowników, co z kolei pozwala na lepszą interpretację danych. Istotną cechą odbiorcy/prosumenta jest to, że w różnych sytuacjach może on inicjować i kończyć działanie urządzenia, a zatem de facto „łączyć się” i „zrywać połączenie” z Internetem. Zapośredniczenie technologiczne odbiorcy/prosumenta niesie za sobą pewne zagrożenia, jak możliwość wykradzenia poufnych danych, czy uzależnienie m.in. od telefonu komórkowego, które w nauce nazywane jest fonoholizmem. Magdalena Barabas zwraca uwagę, że „w przypadku osoby uzależnionej używanie telefonu jest podyktowane nie konicznością, ale czynnikami natury emocjonalnej i społecznej, telefon jest dla niej pośrednikiem w kontaktach z innymi” 185. Wśród cech fonoholików można wyróżnić: 185 M. Barabas, Fonoholizm zagrożeniem dla rozwoju dzieci i młodzieży, „Edukacja – Technika – Informatyka”, nr 2/24, Wyd. Uniwersytetu Rzeszowskiego, Rzeszów 2018, s. 94. 186 Ibidem s. 95. • odczuwanie przymusu nieustannego kontaktowania się z kimś, • usprawiedliwienie swojego zachowania wygodą i bezpieczeństwem (np. „aby rodzice wiedzieli, gdzie jestem”), • posiadanie silnej potrzeby przynależności do grupy i jej uznania (np. „wszyscy znajomi mają komórki, więc ja też muszę mieć”). Osoby z syndromem fonoholizmu „dość często cierpią na fobię społeczną czy też obawiają się samotności, ukrywają lęki z tym związane lub zaprzeczają ich istnieniu oraz sygnalizują brak apetytu, smutek czy nudę”186. Warto podkreślić, że wyżej opisane cechy nie charakteryzują wszystkich użytkowników Internetu, stanowią jednak punkt wyjścia do debaty i pogłębionych badań nad psychosomatycznymi reakcjami odbiorców/prosumentów niejako zmuszanych przez współczesną cywilizację do wykorzystywania zapośredniczenia technologicznego w procesach komunikacji. Ciekawy obraz dylematów związanych z odrzuceniem technologii w procesie socjalizacji i komunikacji przedstawia film „Captain Fantastic” w reżyserii Matta Rossa. Amerykańska, dobrze wyedukowana para rodziców decyduje się na wychowanie i nauczanie swoich dzieci w całkowitym odizolowaniu od technologii, na łonie natury, z dala od cywilizacji. Choć dzieci owej pary znają dzieła klasycznej literatury, filozofię, fizykę, matematykę, chemię, biologię i wiele innych nauk na poziomie akademickim, to nie posiadają umiejętności komunikacyjnych typowych dla przeciętnych nastolatków korzystających ze smartfonów i Internetu. Rodzi to wiele komicznych sytuacji oraz prowadzi ostatecznie do wniosku, że całkowite odrzucenie współczesnych form komunikowania zapośredniczonego technologicznie jest niemożliwe a wręcz szkodliwe. Finalnie reżyser filmu daje wyraźnie do zrozumienia, że najlepszym rozwiązaniem w aktualnej sytuacji jest znalezienie balansu między korzystaniem z nowych technologii, a ich całkowitym odrzuceniem. Opisując perspektywę odbiorcy/prosumenta w proponowanym modelu możemy wyróżnić dwa podstawowe typy hardware i software: 1) urządzenia i algorytmy, na których działanie odbiorca nie ma wpływu, 2) urządzenia i algorytmy, na których działanie odbiorca ma bezpośredni, lub pośredni wpływ. Choć powyższe rozróżnienie na pozór wydaje się banalne, to nie należy go trywializować, szczególnie w kontekście zmian kulturowych, wynikających z globalnego rozwoju technologicznego. Wśród algorytmów, działających bez wiedzy użytkownika, znajdują się aplikacje, z których odbiorca świadomie nie korzysta. Dla przykładu w 2018 roku jedną z najpopularniejszych aplikacji był TikTok187, którego w tamtym czasie na swoich smartfonach miało zainstalowane ok. 500 milionów osób na całym świecie188, przy ogólnej liczbie ponad 5 miliardów urządzeń mobilnych z zarejestrowanymi kartami SIM189. Z danych tych można wynuć wniosek, że z aplikacji TikTok korzystało 10% użytkowników Internetu. Choć konkretny odbiorca mógł nawet nie słyszeć o programie, to dane generowane przez jego użytkowników i przetwarzane przez algorytmy, mogły bezpośrednio lub pośrednio wpłynąć na poszerzenie dostępnych w świecie zasobów informacji i wiedzy, co zaowocowało zmianami w świecie, w których partycypuje użytkownik nie 187 TikTok to aplikacja umożliwiająca nagrywanie i udostępnianie krótkich filmików w konwencji teledysków, trwających maksymalnie 15 sekund. 188 J. Alexander, TikTok surges past 6M downloads in the US as celebrities join the app, „The Verge”, [dostępny online:] https://www.theverge.com/2018/11/15/18095446/tiktok-jimmy-fallon- tony-hawk-downloads-revenue [dostęp 21.12.19r.]. 189 Ł. Majchrzyk, Mobile i digital w 2018 roku w Polsce i na świecie, „MobiRank”, [dostępny online:] https://mobirank.pl/2018/02/02/mobile-i-digital-w-2018-roku-w-polsce-i-na-swiecie/ [dostęp: 22.12.19r.]. wykorzystujący aplikacji. Implikuje to stan „zanurzenia” w zrębach sieci kontekstualnej, która wpływa na odbiorcę wielowymiarowo, bez względu na jego bezpośrednie wybory dotyczące wykorzystywanych narzędzi. Urządzenia/algorytmy działające niezależnie mają istotny wpływ na kształtowanie się informacji i wiedzy, a co za tym idzie możliwości pełniejszego wykorzystania potencjału danych oraz dokładniejszych obserwacji zachodzących zmian kulturowych, co zostało zaznaczone w propozycji modelu. Podejmując interakcję z algorytmami odbiorca/prosument świadomie lub nie godzi się na przekazywanie pewnych danych do serwerów, włączając w to na przykład informacje o rodzaju programu, z którego korzysta (np. przeglądarka internetowa). Taka sytuacja poszerza wiedzę właścicieli danych o sposobie korzystania z ich produktów, co z kolei pozwala je ulepszać, ale jednocześnie stanowi ingerencję w prywatność jednostki. Użytkownik nie ma również wpływu na algorytmy, autonomicznie generujące treści w sieci, przypadkowo zainstalowane wirusy komputerowe, czy boty służące do prowadzenia rozmów. Urządzenia i algorytmy działające niezależnie nie tylko przetwarzają dane i dostarczają informacji, ale również odbierają informacje o użytkownikach, przetwarzając je na dane. Istnieją roboty przeszukujące sieć w celu lepszego zrozumienia zachodzących w niej interakcji, urządzenia podłączone do Internetu wysyłające dane niezależnie jak np. informacje o lokalizacji GPS, dane meteorologiczne, zdjęcia satelitarne, trendy w wyszukiwarkach (Google Trends). W ten sposób algorytm działający niezależnie od woli użytkowników dostarcza pewne informacje bezpośrednio do świata realnego, jednocześnie odbierając z niego kolejne dane. Odbiorca nie ma wpływu na te dane, choć jak wykazałem wcześniej, w sieci semantycznej mogą mieć one znaczący wpływ na użytkownika. Wśród urządzeń i algorytmów, na które odbiorca/prosument ma bezpośredni, lub pośredni wpływ znajdują się te aplikacje i programy, z których użytkownik korzysta świadomie, mogąc je w każdej chwili wyłączyć lub odinstalować. Wśród nich dominują te dostarczające różne usługi dostępne w sieci, w tym m.in. przeglądarki internetowe, aplikacje służące do komunikacji (np. Skype, Messenger, poczta e-mail), generatory stron internetowych i blogów, programy których działanie wymaga podpięcia do sieci, media społecznościowe czy portale internetowe. Wpływ bezpośredni przejawia się w tym, że użytkownik/prosument może zdecydować o włączeniu lub wyłączeniu danej strony, może wejść z nią w interakcję lub pozostawać anonimowy, zainstalować lub odinstalować aplikację, zgodzić się na przetwarzanie swoich danych, a następnie cofnąć taką możliwości dostawcy produktu/usługi. W przypadku mediów społecznościowych i portali internetowych odbiorca/prosument wchodzi w interakcję z innymi osobami i treściami generowanymi przez nadawców instytucjonalnych, innych prosumentów korzystających z zapośredniczenia technologicznego, czy inne algorytmy. Proponowany model pokazuje, że dzięki urządzeniom i algorytmom odbiorca/prosument uzyskuje dostęp do serwerów, na których w formie kodu cyfrowego znajdują się nieprzebrane zasoby informacji, wiedzy i innych wytworów kultury światowej. Użytkownik poprzez zapośredniczenie technologiczne może je wykorzystywać, przekształcać, tworzyć nowe kody kulturowe, dzielić się nimi, współuczestniczyć w grupach wpływających na system społeczno-gospodarczy, co w konsekwencji również wpływa na poszerzanie zasobów informacji, wiedzy oraz akceleruje dalsze zmiany kulturowe. Kolejnym istotnym założeniem proponowanego modelu jest interakcyjność procesów dyfuzji zachodzących z wykorzystaniem urządzeń/algorytmów. Aby jakikolwiek akt komunikacyjny mógł mieć miejsce potrzebne są użytkownik lub grupa użytkowników, urządzenia pośredniczące, dane zgromadzone na serwerach i Internet rozumiany jako kanał komunikacji umożliwiający przesyłanie sygnałów między urządzeniami. Zakładając, że inicjatorem komunikacji jest użytkownik wysyłający żądanie dostępu do treści danej strony (np. portalu internetowego) poprzez przeglądarkę zainstalowaną na telefonie komórkowym, komunikacja przebiega w sposób przedstawiony na Ilustracji 5. Źródło: opracowanie własne. Ilustracja 5. Interakcyjny model komunikacji, zachodzącej przy wykorzystaniu zapośredniczenia technologicznego w środowisku Internetu. Przedstawiony wyżej schemat stanowi uszczegółowienie procesu komunikacji opisanego w głównym modelu, zachodzącego między odbiorcą/prosumentem, jego urządzeniem pośredniczącym a serwerem. Proces ten inicjuje użytkownik, wysyłający komunikat do urządzenia (np. żądanie wyświetlenia treści strony internetowej), urządzenie przetwarza komunikat na język danych, zapisuje je i wysyła żądanie do serwera, gdzie następuje ponowne zdekodowanie danych ich zapis i udzielenie (pozytywnej bądź nie) odpowiedzi na żądanie udostępnienia danych, które z powrotem przesyłane są do urządzenia odbiorcy, gdzie są dekodowanie i wyświetlane osobie inicjującej kontakt. Jednocześnie urządzenia i/lub programy (np. przeglądarka zapisująca pliki cookie), z których korzysta odbiorca same zapisują dane na temat aktywności swojego właściciela oraz dzielą się nimi z serwerami, do których przesyłane jest żądanie. Proponowany schemat przedstawia również sposób dyfuzji treści między użytkownikami sieci, pokazując zależność komunikacji od zapośredniczenia technologicznego oraz serwerów z danymi. Ostatnia kolumna opisana jako „urządzenia innych odbiorców”, to teoretyczna przestrzeń dyfuzji, gdzie dzięki wykorzystaniu na przykład mediów społecznościowych pojedyncza treść wysłana przez użytkownika może trafić do setek innych odbiorców, których „symbolizują” kropki na rysunku. Powyższa charakterystyka dwutorowego modelu przesyłania komunikatu i danych ma zatem zastosowanie nie tylko w sytuacji, gdy serwer odpowiada na żądanie wyświetlenia dowolnej strony internetowej, czy wyszukiwania. Jeśli potencjalnym odbiorcą komunikatu będzie inna osoba, lub grupa osób korzystająca z tych samych programów czy aplikacji model nadal pozostanie aktualny, z tym wyjątkiem, że finalny odbiorca nie będzie nadawcą pierwszego komunikatu. Ostatnia ważna cecha dyfuzji zapośredniczonej wynikająca z proponowanego modelu, to wpływ danych na zasoby informacji i wiedzy. Przejawia się on poprzez wszystkie akty komunikacyjne pokazane na Ilustracji 4. Niezależnie od tego, czy urządzenia/algorytmy działają niezależnie, działają na żądanie użytkownika, czy też skierowane są do grup odbiorców (media społecznościowe, gry sieciowe) w ostateczności zwiększają ilość dostępnych danych oraz informacji o świecie. Sytuacja ta implikuje z jednej strony zagrożenie chaosem informacyjnym, z drugiej strony stanowi niezwykłą szansę na zwiększenie zasobów wiedzy, co w konsekwencji pozwala na jeszcze lepsze wykorzystanie zgromadzonych danych, tworząc efekt kuli śniegowej. ROZDZIAŁ II. PORTALE INTERNETOWE I PROCESY ALGORYTMIZACJI Informatyka nie jest aż tak abstrakcyjna i oderwana od świata, jak czasem się wydaje. Brian Christian, Tom Griffiths190 190 B. Christian, T. Griffiths, Algorytmy. Kiedy mniej myśleć i inne sposoby na racjonalne życie, Wyd. Feeria Science, 2018, s. 12. W drugim rozdziale dysertacji podejmuję się zdefiniowania i przedstawienia podstawowej typologii szczególnego rodzaju stron internetowych określanych mianem „portali”. Odwołując się do teorii z dziedziny medioznawstwa, wyjaśniam możliwe przyczyny popularności podobnych stron oraz dokonuję charakterystyki trzech największych polskich portali horyzontalnych, na przykładzie których prowadzone będą dalsze badania nad dyfuzją treści. W toku pracy opieram się na analizie dostępnych w sieci zasobów big data, która to umożliwia wskazanie najważniejszych kanałów dyfuzji treści, charakterystyki demograficznej odbiorców oraz sposobów korzystania z portali. Kolejna część dysertacji zawiera analizę wpływu algorytmizacji na wytwarzanie, prezentowanie i dyfuzję treści w sieci. Dzięki przeprowadzeniu eksperymentów oraz wywiadów z ekspertami zajmującymi się tymi procesami, sprawdzam istnienie ewentualnej korelacji zachodzącej między zainteresowaniami użytkowników, a treścią dyfundowaną przez algorytmy na stronach głównych portali. Wywód zamykam opisem możliwych zagrożeń, wypływających z algorytmizacji coraz szerzej wykorzystywanej w mediach. 2.1. Definicja i typologia portali internetowych W toku przygotowań do napisania niniejszej pracy pojawił się dylemat, dotyczący skonkretyzowania obszaru badawczego, w którym dochodzi do rozprzestrzeniania się zasobów w sieci. Założyłem, że dla rzetelnego opisu zjawiska kluczowa nie jest liczba analizowanych stron internetowych, a ich zasięg wśród użytkowników. Ostatecznie zdecydowałem się na przeprowadzenie badań z perspektywy największych stron internetowych (portali) zakładając, że mają one najbardziej znaczący udział w dyfuzji treści w Polsce, a procesy obserwowane u innych, mniejszych podmiotów, traktuję jako analogiczne do tych obserwowanych u największych. W nauce portale definiuje się jako rozwiązanie informatyczne umożliwiające dostęp do wielu źródeł informacji w ramach jednolitego interfejsu, który można przeglądać w przeglądarce internetowej na komputerze stacjonarnym, lub na urządzeniu mobilnym191. Portale w jednorodny sposób mogą prezentować rozmaite treści takie jak na przykład materiały wideo, wykresy, artykuły, nagrania dźwiękowe, obrazy, grafiki i inne gatunki dziennikarskie. Pomocna w zdefiniowaniu stron internetowych192 jest typologia przedstawiona przez Krzysztofa Piądłowskiego, który rozróżnia: 191 D. Jemielniak, A.K. Koźmiński, Zarządzanie Wiedzą, Wyd. Wolters Kluwer, Warszawa 2011, s. 318. 192 Strony internetowe, strony www, witryny www, serwisy www traktuję w pracy jako synonimy. 193 K. Piądłowski, Portale internetowe, Wyd. Centrum Edukacji Bibliotekarskiej, Informacyjnej i Dokumentacyjnej, Warszawa 2006, s. 14. 194 „Smoleńsk – 96 wspomnień”, [dostępny online:] https://smolensk.onet.pl/ 195 „Przystanek: Polska”, [dostępny online:] https://przystanekpolska.onet.pl/ 196 Reportaże multimedialne są przykładem połączenia pracy informatyków i dziennikarzy, umożliwiającym integrację tradycyjnych gatunków dziennikarskich oraz ich prezentację w zupełnie odmienny sposób. Ich umiejscowienie wśród serwisów tematycznych może być problematyczne, bowiem stanowią one stadium pośrednie między nowymi formami dziennikarskimi a autonomicznymi stronami internetowymi. Rozważania nad ich typologią nie należą jednak do zakresu mojej pracy. • portale horyzontalne, • wortale (portale wertykalne), • serwisy tematyczne193. Serwisy tematyczne poświęcone są z reguły jednemu konkretnemu tematowi, jednej postaci, lub jednemu wydarzeniu. Liczba takich stron jest spora, jednak ich odnalezienie przez użytkowników może być problematyczne ze względu na brak częstej aktualizacji treści, co utrudnia ich dobre pozycjonowanie w wyszukiwarkach. Przykładem serwisu tematycznego może być strona „Smoleńsk – 96 wspomnień”, zawierająca wywiady z rodzinami ofiar katastrofy smoleńskiej194. Strona ta jest zamknięta i nie są wprowadzane są na niej żadne zmiany. Za inny, specyficzny rodzaj serwisu tematycznego, uznać można reportaże multimedialne, jak „Przystanek: Polska”195. Treści publikowane w ramach podobnych przedsięwzięć skupiają się na jednym obszarze tematycznym i również stanowią zamkniętą całość, która może zostać uzupełniona196. Kolejnym typem stron internetowych są wortale, nazywane również portalami wertykalnymi. Wortale prezentują użytkownikom szeroki wachlarz informacji, skupiający się na jednej określonej dziedzinie, na przykład motoryzacji, sporcie, religii, zdrowiu, czy polityce. W ramach tak rozumianego wortalu motoryzacyjnego publikowane będą treści dotyczące wszelkich rodzajów nowych i starych pojazdów, porad dotyczących ich użytkowania, wyścigów samochodowych, historii ludzi związanych z tematyką itd. Unikalną cechą wortali jest mocne przywiązanie do konkretnej tematyki i niemal całkowity brak zainteresowania niezwiązanymi z nią informacjami. Przykładem wortali będą strony internetowe takie jak „Auto Świat” i „Przegląd Sportowy”, „Filmweb” czy „Deon”197. 197 „Deon” to strona prezentująca różnorodne treści religijne, polityczne, kulturalne i społeczne, jednak z perspektywy chrześcijańskiej. Wortale mogą zatem poruszać bogatą tematykę, przy założeniu jednolitej perspektywy publikacji, w tym konkretnym przypadku religijnej. 198 Udostępniane w częściowo płatnych serwisach streamingowych jak na przykład VOD.pl. 199 J. Grzenia, Komunikacja językowa w Internecie, Wyd. Naukowe PWN, Warszawa 2006, s. 173. Najbardziej różnorodne pod względem tematyki i rodzajów publikowanych treści będą portale horyzontalne, które udostępniają, a następnie dyfundują zasoby z niemal każdej dziedziny życia. Dla przykładu w obręb zagadnień poruszanych przez portale wejdą wiadomości polityczne, krajowe, lokalne, zagraniczne, sportowe, podróżnicze, kulturalne, rozrywkowe, celebryckie, oferty sprzedażowe, filmy198, publikowane w formie artykułów, nagrań wideo, galerii zdjęć i innych form dziennikarskich charakterystycznych dla Internetu. Tak szeroki zakres możliwości jakie dają portale sprawia, że w nauce opisuje się je jako „strukturę ponadgatunkową”, która łączy w sobie różne gatunki internetowe i rozmaite formy ich występowania199. Portale same mogą produkować treści w oparciu o dziennikarzy i redaktorów, mogą je również pobierać ze źródeł zewnętrznych jak na przykład Polskiej Agencji Prasowej, opracowywać artykuły na podstawie informacji pochodzących z innych mediów lub linkować bezpośrednio do innych stron internetowych, w zależności od charakteru witryny oraz umów podpisanych z partnerami dostarczającymi zasoby. Po wyprodukowaniu (pozyskaniu) treści głównym zadaniem portalu będzie jej dyfuzja poprzez różnorodne kanały pozostające w dyspozycji wydawców. Badania nad fenomenem portali wskazują na ich ewolucję, polegającą na rekonfiguracji i ponownym wdrożeniu w obieg medialny form znanych z czasów sprzed epoki dominacji Internetu. Magdalena Szpunar pisząc o tym zjawisku zwraca uwagę na fakt, że „coś może wydawać się nowe, ponieważ jest nowszą wersją, lub konfiguracją czegoś, co zasadniczo istnieje”200. W tym kontekście uprawnione wydaje się stwierdzenie, że portale przejmują formaty znane z „tradycyjnych” mediów, takie jak teksty pisane, nagrania wideo, filmy, programy na żywo, wywiady, podcasty, obrazy. Do tego Internet dysponuje własnym arsenałem nowych form, jak na przykład interaktywne infografiki i multimedialne reportaże. W Tabeli 6. zaprezentowano porównanie możliwości technicznych, jakie dają media tradycyjne oraz portale internetowe. 200 M. Szpunar, Nowe-stare…, op. cit. s. 15. 201 W telewizji pojawiają się ruchome teksty np. paski w telewizjach informacyjnych czy śniadaniowych, przez niektórych medioznawców uznawane za odrębne gatunki dziennikarskie. 202 Serwisy udostępniające muzykę na żądanie na przykład Spotify. 203 Wideo na żądanie, na przykład serwis Netflix udostępniający filmy i seriale dla użytkowników telewizorów wyposażonych w funkcję Smart TV. 204 Rola nowych technologii w dyfuzji gazet, która zachodzi dzięki wykorzystaniu programów do dystrybucji prasy w wersjach elektronicznych na telefony komórkowe lub czytniki e-booków nie została jak dotąd kompleksowo opisana w nauce. Tabela 6. Porównanie możliwości prezentowania treści przez media tradycyjne i portale internetowe. Prasa Radio Telewizja Portale Tekst X X201 X Obraz X X X X Dźwięk X X X Wideo X X Interaktywny tekst X Interaktywny obraz X Interaktywny dźwięk X202 X Interaktywne wideo X203 X Źródło: opracowanie własne. Powyższe opracowanie uzmysławia, że portale internetowe posiadają najszerszy wachlarz możliwości prezentowania różnych rodzajów treści dziennikarskich. Zestawienie potwierdza również opisywaną wcześniej ewolucję sieci kontekstualnej, w aspekcie przyłączania nowych rzeczy do Internetu, co skutkuje przekształceniami tradycyjnych mediów. Przykładem mogą być serwisy udostępniające gazety, filmy lub muzykę na żądanie204. Opisywana w poprzednim rozdziale nadprodukcja danych i informacji charakteryzuje również portale internetowe, jako aktywnych aktorów, biorących udział w dyskursie medialnym. W tym kontekście pojawia się pytanie o szeroko rozumianą jakość wytwarzanych treści, która zależy nie tylko od kunsztu dziennikarzy, ale coraz częściej od informatyków, redaktorów, moderatorów, wydawców, specjalistów ds. optymalizacji na potrzeby wyszukiwarek (SEO), osób odpowiedzialnych za aktualizację profili w mediach społecznościowych, czy ekspertów z zakresu marketingu. Wszystkie wymienione osoby mogą mieć pośredni lub bezpośredni wpływ na wytwarzanie treści, jej formę oraz późniejszą dyfuzję. Problemy związane z jakością publikowanych zasobów mogą wynikać z sygnalizowanego wcześniej przejmowania przez portale wielu cech i form mediów tradycyjnych. Magdalena Szpunar w odniesieniu do naukowego dyskursu medialnego zauważa, że jego jakość jest coraz niższa, a „odpowiedzialność za zbanalizowanie i strywializowanie” treści ponoszą dziennikarze oraz świat naukowy, który bezkrytycznie przyjmuje zasady debaty promowane przez media internetowe205. Autorka pisze dalej, że „przedstawiciele nauki w większości wypadków bezwładnie akceptują zasady ekonomiki medialnej, narzucającej skrótowość, uproszczenia i maksymalne kondensowanie wypowiedzi, co nieuchronnie prowadzi do pauperyzacji naukowego dyskursu”206. Podobnego zdania jest francuski socjolog Denis McQuail, który ocenia, że świat kreowany przez środki masowego przekazu jest często wynikiem nieformalnych powiązań ludzi mediów207. Może to prowadzić do sytuacji, w której dziennikarze i redaktorzy pracujący w portalach internetowych, korzystają z pomocy kilku „dyżurnych” ekspertów, z którymi kontaktują się prosząc o natychmiastowe i często trywialne komentarze, do spraw nierzadko bardzo ważnych. Genezą podobnej sytuacji może być źle rozumiany wyścig o dostarczenie informacji jak najszybciej. Otwarte pozostaje pytanie o oczekiwania i przyzwyczajenia odbiorców, którzy mogą chcieć zarówno ekspresowej informacji, jak i jednoczesnego wytłumaczenia kontekstu danej sprawy. 205 M. Szpunar, Mediatyzacja nauki. O roli naukowców w epoce paleo- i neotelewizji, „Zarządzanie w Kulturze”, nr 16, z. 3, 2015, s. 298. 206 Ibidem, s. 299. 207 D. McQuail, Teoria komunikowania masowego, Wyd. Naukowe PWN, Warszawa 2007, s. 313. Mimo sygnalizowanych w nauce problemów związanych z jakością treści prezentowanych na portalach, pozostają one jednymi z najpopularniejszych mediów działających w sieci. Duży zasięg portali horyzontalnych wśród użytkowników można tłumaczyć udostępnianiem szerokiego wachlarza form (np. artykuły informacyjne, reportaże multimedialne, quizy, materiały audio i wideo) oraz bogatą tematyką, skierowaną w zasadzie do każdego odbiorcy. Denis McQuail wymienia cztery podstawowe funkcje mediów: informacyjną, rozrywkową, tożsamościową oraz integracyjną208. Portale mogą pełnić wszystkie te funkcje jednocześnie. Informacyjną poprzez szybkie przekazywanie aktualnych wiadomości, rozrywkową dzięki prezentowaniu treści o zabarwieniu ludycznym, tożsamościową zakładającą wzmacnianie identyfikacji i zaufania odbiorców do portalu, integracyjną za sprawą możliwości wpływania na prezentowane treści oraz ich dyfuzję głównie w mediach społecznościowych i na otwartych forach dyskusyjnych. 208 M. Mrozowski, Media masowe. Władza rozrywka i biznes, Oficyna Wydawnicza ASPRA-JR, Warszawa 2001, s. 115. 209 Onet rezygnuje całkowicie z komentarzy w serwisach Wiadomości i Kultura [dostępny online:] https://www.wirtualnemedia.pl/artykul/onet-rezygnuje-calkowicie-z-komentarzy-w-srwisach-wiadomosci-i-kultura-dlaczego-jak-komentowac [dostęp: 3.11.19r.]. 210 E. Katz, M. Gurevitch, H. Haas, On the Use of the Mass Media for Important Things, „American Sociological Review” 1973, Nr 38, s. 164—181. Warto odnotować, że rola forów internetowych w portalach słabnie, na rzecz przenoszenia interakcji do social mediów209. Inną typologią, pomocną w zrozumieniu fenomenu popularności portali, są zaproponowane przez Elihu Katza, Michaela Gurevitcha i Hadassaha Haasa kategorie potrzeb odbiorców, które mogą być zaspokajane przez media. Należą do nich dążenia poznawcze, eskapistyczne, afektywne, poczucia osobistej spójności oraz społecznej integracji210. Wydaje się, że portale horyzontalne mogą zaspokoić wszystkie powyższe potrzeby użytkowników. Poznawcze poprzez dostarczanie wiedzy i informacji, afektywne poprzez odbiór treści nacechowanych emocjonalnie, osobistej spójności poprzez zaufanie i utożsamianie się z przekazem portalu, społecznej integracji poprzez możliwość interakcji oraz eskapistyczne poprzez możliwość zapoznania się z treściami o charakterze rozrywkowym. Powyższe przyczyny mogą być powodem utrzymującej się popularności podobnych portali w Polsce. 2.2. Specyfika portali horyzontalnych w Polsce Zgodnie z założoną metodologią, po dokonaniu analizy definicji i typologii portali jako zjawiska medialnego wpisanego w kontekst sieci semantycznej, kolejnym krokiem w pracy będzie skonkretyzowanie obszaru badawczego poprzez wskazanie i opis największych polskich witryn WWW. Opierając się na danych udostępnionych przez PBI Gemius w sierpniu 2019 roku211 można powiedzieć, że na polskim rynku horyzontalnych portali internetowych dominują trzy podmioty: Onet, Wirtualna Polska (WP) oraz Interia. Szczegółowe dane dotyczące liczby odwiedzin domen 212Onet.pl, WP.pl i Interia.pl zaprezentowano w Tabeli 7. 211 PBI Gemius, Wyniki badania Gemius/PBI za sierpień 2019, [dostępny online:] https://www.gemius .pl/wszystkie-artykuly-aktualnosci/wyniki-badania-gemiuspbi-za-sierpien-2019.html [dostęp: 25.10.19r.]. 212 Nie wdając się w głębsze rozważania natury technologicznej za domenę internetową uznaję podstawowy adres www portalu, wpisywany w przeglądarkach internetowych, w celu wyświetlenia zawartości stron głównych portali. Tabela 7. Liczba odwiedzin domen Onet.pl, WP.pl, Interia.pl. Domena Liczba Odsłony Zasięg Średnia Średnia Średni czas Onet.pl 16 349 205 1 396 461 333 58,33% 4 265 032 45 507 013 00:22:11 WP.pl 15 973 364 1 869 389 782 56,99% 4 761 895 60 646 848 00:29:16 Interia.pl 13 798 031 760 700 685 49,23% 2 920 021 24 915 222 00:18:20 Źródło: opracowanie własne na podstawie danych PBI Gemius. Przedstawione wyżej dane dotyczą konkretnych stron internetowych, których właścicielami są korporacje medialne. Wśród 10 najpopularniejszych wydawców (właścicieli witryn i programów internetowych) w Polsce znajdują się: 1. Grupa Google, 2. Facebook.com, 3. Grupa Wirtualna Polska (właściciel domeny wp.pl), 4. Grupa Ringer Axel Springer (właściciel domeny onet.pl), 5. Youtube, 6. Grupa OLX, 7. Grupa Interia (właścicel domeny interia.pl) 8. Grupa Allegro, 9. Grupa Polska Press, 10. Grupa Gazeta. Poszczególne grupy medialne są właścicielami wielu domen internetowych, z czego największymi portalami według danych Gemius pozostają Onet, WP i Interia. Inne polskie strony www, które można zaklasyfikować jako portale horyzontalne w tym gazeta.pl, se.pl, tvn24.pl, naszemiasto.pl, fakt.pl, o2.pl, odwiedzane są przez mniej niż 10 milionów internautów miesięcznie oraz często są witrynami ściśle powiązanymi z tradycyjnymi mediami („Gazetą Wyborczą”, telewizją TVN24, tabloidem „Fakt”). Aby uniknąć metodologicznych zarzutów o klasyfikację wortali tematycznych jako portali horyzontalnych, zdecydowałem się zawęzić obszar badawczy do Onetu, Wirtualnej Polski oraz Interii. W celu lepszego zrozumienia specyfiki portali przedstawiam ich krótką charakterystykę. Portal Onet został założony w 1996 roku. Pierwsza strona w domenie OptimusNet została uruchomiona 2 czerwca 1996 roku,213 rok później skrócono jej nazwę do obecnej postaci. Początkowo portal działał jako katalog polskich stron internetowych, z czasem nabierając charakteru bardziej informacyjnego. Do 2001 roku powstawały kolejne informacyjne działy Onetu: Wiadomości, Biznes, Sport, Muzyka, Film. W połowie 2011 roku Onet.pl stał się własnością Grupy ITI, która w 2012 roku sprzedała portal Grupie Ringier Axel Springer, do dziś będącej jego właścicielem. Fragment strony głównej214 portalu zaprezentowano na Ilustracji 6. 213 Ringier Axel Springer – portfolio, [dostępny online:] https://www.ringieraxelspringer.pl/marki/ [dostęp: 2.10.19r.]. 214 Przez „stronę główną” rozumiem zawartość wyświetlaną użytkownikom po wpisaniu w wyszukiwarkę podstawowej domeny (jak onet.pl, wp.pl, interia.pl). Ilustracja 6. Fragment strony głównej portalu Onet w wersji na urządzenia stacjonarne. Źródło: Onet.pl. Portal Onet można podzielić na trzy główne sekcje, które są widoczne dla użytkowników urządzeń stacjonarnych. Pierwsza znajduje się w górnej części strony, jest interaktywna i przesuwa się wraz z użytkownikiem, oglądającym niższe części witryny. Znajdują się w niej odnośniki do głównych serwisów tematycznych i usług Onetu, jak na przykład poczty e-mail, wyszukiwarki, sklepu internetowego. Dużą część strony głównej zajmuje także miejsce na reklamę. Portal podzielony jest na dwie główne części: szerszą, o układzie kafelkowym po lewej stronie strony oraz węższą, zawierającą linki do wiadomości po prawej stronie. Poniżej zamieszczonego zrzutu ekranu znajdują się kolejne sekcje tematyczne oferowane przez Onet w niezmiennym, powtarzalnym układzie. Portal Wirtualna Polska powstał na Politechnice Gdańskiej w 1995 roku. Początkowo nad jego rozwojem jako katalogu polskich stron internetowych czuwała firma Centrum Nowych Technologii. Z czasem portal udostępniał coraz więcej pionierskich w Polsce funkcjonalności jak np. komunikator Jabber oraz z katalogu stron przekształcił się w serwis informacyjny z wieloma wyspecjalizowanymi działami jak np. Wiadomości, Sport, Biznes, Gwiazdy. Obecnie portal należy do Grupy Wirtualna Polska. Na Ilustracji 7. przedstawiono fragment strony głównej WP.pl na urządzenia stacjonarne. Ilustracja 7. Fragment strony głównej portalu Wirtualna Polska w wersji na urządzenia stacjonarne. Źródło: wp.pl. Struktura strony głównej Wirtualnej Polski nie odbiega zasadniczo od Onetu. WP.pl nie posiada jednak interaktywnego paska znajdującego się u góry strony, jest on tam zamieszczony na stałe. Dodatkowo linki znajdujące się po prawej stronie strony Wirtualnej Polski znikają przy kolejnej, tematycznej sekcji, gdzie pozostawiono już jedynie układ „kafelkowy”, który jest lepiej przystosowany do odbioru na urządzeniach mobilnych. Niższa część strony WP.pl jest podzielona tematycznie na kolejne serwisy takie jak Biznes, Gwiazdy, Motoryzacja. Tymczasem układ Onetu pozostaje przez całą witrynę podzielony na dwie sekcje pionowe. Portal Interia został założony w 1999 roku, początkowo jako strona udostępniająca jedynie usługę poczty e-mail. 11 lutego 2000 roku zaprezentowano pierwsze serwisy tematyczne, które od tamtej pory są sukcesywnie rozwijane. Wśród nich znajdują się m.in. Fakty, Sport, Motoryzacja. Od 2008 roku portal należy do Grupy Bauer, która planuje jego sprzedaż215. Fragment strony głównej Interii zaprezentowano na Ilustracji 8. 215 M. Zatoński, Bauer szuka kupca na Interię, „Puls Biznesu”, [dostępny online:] https://www.pb .pl/bauer-szuka-kupca-na-interie-978634 [dostęp: 12.01.20r.]. Ilustracja 8. Fragment strony głównej portalu Interia w wersji na urządzenia stacjonarne. Źródło: Interia.pl Wygląd strony głównej portalu Interia zasadniczo różni się od Onetu i Wirtualnej Polski. Serwis podzielony jest na dwie główne części, które nieznacznie różnią się od siebie wielkością. Linki do artykułów wraz z liczniejszymi, niż w przypadku pozostałych portali, zdjęciami znajdują się po lewej stronie portalu. Układ „kafelkowy” zajmuje prawą stronę serwisu. Podział ten zanika poniżej sekcji sportowej, gdzie prezentowane są materiały jedynie ze zdjęciami o różnej wielkości i układzie. Interia jest też jedynym z analizowanych portali, który nie posiada na końcu strony tzw. „streamu newsów”, będącego rozwinięciem witryny i zawierającym treści dobierane w sposób zautomatyzowany. Wszystkie trzy analizowane portale łączy fakt, że posiadają specjalne wersje stron przystosowane do specyfiki urządzeń mobilnych. Typologia podobnych programów została zaproponowana przez pracownię Nielsen Norman Group. Rozróżnia ona trzy podstawowe rodzaje aplikacji ze względu na technologię ich tworzenia: 1. aplikacje natywne, 2. mobilne aplikacje stron internetowych 3. aplikacje hybrydowe216. 216 R. Budiu, Mobile: Native Apps, Web Apps, and Hybrid Apps, [dostępny online:] https://www.nngroup.com/articles/mobile-native-apps/ [dostęp: 26.11.19r.]. 217 Więcej o projekcie można przeczytać na stronie: http://aplikacje.onet.pl/onet/index.html Aplikacje natywne są tworzone specjalnie na urządzenia mobilne, można je pobrać w sklepach takich jak Google Play, wymagają znacznie większych nakładów finansowych i mają dużo szersze możliwości interakcji z urządzeniem (np. używanie aparatu fotograficznego, nagrywanie dźwięku). Mobilne aplikacje stron www, to specjalne wersje witryn przystosowane do popularnych wyszukiwarek internetowych, z których korzystają użytkownicy smartfonów i tabletów. Z kolei aplikacje hybrydowe można pobrać i zainstalować na urządzeniu (podobnie jak aplikacje natywne), jednak ich głównym celem jest prezentowanie treści konkretnej strony internetowej. Jak wykazano na Ilustracji 9. portale jako główny kanał dyfuzji na smartfonach i tabletach wykorzystują mobilne aplikacje stron internetowych, choć warto odnotować próby wprowadzania na rynek informacyjnych aplikacji natywnych, jak np. Onet News217. Ilustracja 9. Górne części mobilnych wersji stron głównych Onetu, Interii i Wirtualnej Polski. Źródło: Onet.pl, Interia.pl, WP.pl. Porównanie powyższych zrzutów uświadamia, że w wersjach mobilnych portale na pierwszym wyświetlanym przez użytkownika ekranie posiadają maksymalnie pięć wiadomości. Układ jest zdecydowanie bardziej zwarty, niż w przypadku wersji na urządzenia stacjonarne. Sposób prezentowania treści na portalach Onet i Interia nie różni się zasadniczo od siebie. Po części wypełnionej w całości zdjęciami i układem kafelkowym następuje część z linkami z serwisów informacyjnych. Inne rozwiązanie stosuje Wirtualna Polska, która pod jednym głównym zdjęciem wyświetla użytkownikom tytuły z mniejszymi obrazkami. Wydaje się, że jednym z największych wyzwań stojących współcześnie przed portalami jest dostosowanie się do odbiorców korzystających z Internetu głównie za pomocą urządzeń mobilnych. Dane statystyczne pokazują, że ruch generowany przez użytkowników smartfonów i tabletów stanowi już ponad połowę ruchu portali. Procentowy udział w konsumpcji treści użytkowników urządzeń mobilnych i komputerów stacjonarnych zaprezentowano na Wykresie 3. Wykres 3. Procentowy udział ruchu generowanym z komputerów stacjonarnych i urządzeń mobilnych w okresie wrzesień-grudzień 2019 roku. ONET WP INTERIA 51,90% 51,64% 46,52% 48,10% 48,36% 53,48% Urządzenia mobilne Komputery stacjonarne Źródło: opracowanie własne na podstawie SimilarWeb218. 218 W dalszej części pracy szczegółowo opisuję to narzędzie, zob. s. 94. 219 Statista.com, Mobile phone users in the world from 2013 to 2019, [dostępny online:] https://www.statista.com/statistics/274774/forecast-of-mobile-phone-usersworldwide/[dostęp: 23.11.19r.]. Powyższy wykres uświadamia, że w przypadku Onetu i Wirtualnej Polski ruch generowany przez urządzenia mobilne jest większy, niż ruch generowany przez użytkowników korzystających z komputerów osobistych. Inaczej jest w przypadku Interii, gdzie przewaga użytkowników komputerów stacjonarnych wciąż utrzymuje się na poziomie ok. 8 punktów procentowych. Wraz z rozwojem technologii mobilnych obserwujemy przyrost ruchu generowanego za pomocą smartfonów i tabletów219. Nic nie wskazuje na to, aby trend ten miał się zatrzymać. Sytuacja taka zmusza polskie portale do dostosowywania swoich stron na potrzeby urządzeń mobilnych, co może stanowić potwierdzenie hipotezy zawartej we wstępie do pracy. Warto w tym miejscu odnotować, że sprzedawane obecnie telefony i tablety dzięki wykorzystaniu aplikacji mobilnych umożliwiają dostarczenie informacji w formie notyfikacji, powiadomień nazywanych często pushami (z j. ang.: push – pchnięcie). Termin push przyjął się już w literaturze przedmiotu oraz praktyce dlatego też będzie stosowany w niniejszej pracy zamiennie z wymienionymi wcześniej. Notyfikacje dostarczane są odbiorcom w czasie rzeczywistym i stanowią nowy rodzaj dyfuzji treści, który zostanie poddany szerszej analizie w dalszej części rozprawy. W badaniach nad dyfuzją istotny jest nie tylko omówiony wyżej układ graficzny stron, który podlega modyfikacjom w czasie, ale również bardziej stała struktura redakcyjna. Celowo w tym miejscu pomijam ogólną strukturę korporacji medialnych, która zostanie omówiona później. Kluczowa dla dyfuzji pozostaje natomiast struktura redakcji, bo to one mają decydujący wpływ na publikowane treści oraz sposób ich ekspozycji i wykorzystane do tego kanały. Porównanie liczebności i nazw redakcji zaprezentowano w Tabeli 8. Tabela 8. Porównanie działów tematycznych w Portalach Onet, Wirtualna Polska i Interia. Lp. Onet Wirtualna Polska Interia 1. Auto Świat, Motoryzacja WP Moto, Autokult, Autocentrum.pl Interia Motoryzacja 2. Business Insider Money.pl, WP Finanse Interia Biznes 3. Facet WP Facet Interia Facet 4. Gry, Komputer świat, Technologie WP Tech, WP Komórkomania, WP Gadżetomania Interia Tech, Interia Mobtech 5. Kobieta, Ofeminin WP Kobieta Interia Kobieta, 6. Kultura WP Książki, WP Film, WP Kuchnia Interia Muzyka, Interia Film, tekściory.pl 7. Magia, strefa tajemnic 8. Medonet WP abcZdrowie Interia Mam Dziecko 9. Noizz o2.pl 10. O!Historia Interia Nowa Historia 11. Plejada WP Gwiazdy, Pudelek 12. Poczta WP Poczta, Poczta o2 Interia Poczta 13. Podróże WP turystyka, Wakacje.pl 14. Pogoda WP Pogoda Interia Pogoda 15. Program TV Program TV Program TV 16. Religia 17. Sport Sportowe Fakty Interia Sport 18. Sympatia WP Magazyn 19. Wiadomości, wiadomości lokalne WP Wiadomości, WP Opinie, Wawalove Interia Fakty 20. VOD, Onet TV WP Pilot, WP TV, Pudelek.tv, Telewizja WP, Open FM Interia TV, światseriali.pl 21. Zumi 22. Zapytaj Onet 23. Interia Forum, Czateria 24. Interia Praca Źródło: opracowanie własne. Analiza tematyki serwisów znajdujących się w portfolio największych polskich portali horyzontalnych prowadzi do wniosku, że nie różnią się one od siebie w znaczący sposób, a zakres poruszanych przez nie zagadnień jest w dużej mierze tożsamy. Niewielkie dyferencje można wykazać w przypadku Interii, która ma mniej rozbudowane serwisy tematyczne, za to posiada forum oraz czat, z których zrezygnowały Onet i Wirtualna Polska. Onet ma również trzy serwisy, których odpowiedników nie znajdziemy w pozostałych portalach: Zumi (serwis z mapami), Zapytaj Onet (serwis z pytaniami i odpowiedziami) oraz Onet Religia. Wszystkie portale posiadają również własne sklepy internetowe. Pomocna w zrozumieniu dyfuzji zachodzącej przy współudziale portali, może być również analiza podstawowych danych demograficznych dotyczących wieku i płci odbiorców. Zostały one zaprezentowane na Wykresach 4., 5. i 6. Wykres 4. Wiek użytkowników trzech największych portali horyzontalnych w Polsce. 26,79% 27,61% 17,76% 11,49% 10,41% 5,95% 24,52% 25,08% 17,12% 12,46% 12,69% 7,40% 24,85% 26,59% 17,94% 12,39% 11,49% 6,74% 18-24 25-34 35-44 45-54 55-64 65+ Onet Interia WP Źródło: opracowanie własne na podstawie SimilarWeb. Powyższy wykres może stanowić dowód, że tematyką prezentowaną na portalach bardziej zainteresowani są ludzie młodzi. Nie ma jednak statystycznie znaczących różnic w odbiorze portali, jeśli wziąć pod uwagę jedynie wiek Internautów. Oznacza to, że tematyka prezentowana przez każdy z portali trafia do podobnej liczby użytkowników w tym samym przedziale wiekowym. Nie można zatem wysnuć wniosku, aby którykolwiek z analizowanych portali był preferowany przez konkretną grupę wiekową. Z danych przedstawionych na wykresie wynika, że odbiorcami portali horyzontalnych w Polsce są przede wszystkim osoby do 34. roku życia. Stanowią one ponad połowę wszystkich użytkowników Onetu, Wirtualnej Polski i Interii. Wraz z wiekiem liczba odbiorców portali maleje. Z przeprowadzonych na ten temat badań wynika, że osoby w wieku powyżej 50 lat najchętniej korzystają z Internetu wykorzystując pocztę e-mail, lub biernie przeglądając treści prezentowane na witrynach www. Wynika to z ograniczonego zaufania do sieci oraz przekonania, że znajdujące się w niej materiały są w większości przeznaczone dla osób młodych220. Aby uzyskać szerszy obraz sytuacji dane dotyczące wieku osób korzystających z portali, zestawiono z danymi dotyczącymi wieku wszystkich Internautów w Polsce. Ponieważ dane zaprezentowane na Wykresie 4. nie różnią się znacząco dla poszczególnych portali, na Wykresie 5. pokazano jedynie najwyższe wartości. 220 B. Szmigielska, A. Bąk, M. Hołda, Seniorzy jako użytkownicy Internetu, „Nauka”, nr 2, 2012, s. 145. 221 Centrum Badania Opinii Społecznej, Korzystanie z Internetu. Komunika z badań, nr 49/2017, [dostępny online:] https://www.cbos.pl/SPISKOM.POL/2017/K_049_17.PDF [dostęp: 20.12.19r.]. Wykres 5. Wiek osób korzystających z największych polskich portali w porównaniu do wieku wszystkich użytkowników Internetu w Polsce. 100,00% 96,00% 87,00% 70,00% 47,00% 23,00% 26,79% 27,61% 17,94% 12,46% 12,69% 7,40% 18-24 25-34 35-44 45-54 55-64 65+ Ogółem Portale Źródło: opracowanie własne na podstawie SimilarWeb i CBOS221. Odczytując dane zawarte na Wykresie 5. należy mieć na uwadze, że nie pokazuje on różnicy między liczbą internautów a liczbą użytkowników portali internetowych w danym wieku. Wykres pozwala z dużą dozą prawdopodobieństwa wywnioskować, że spadek liczby odbiorców portali wraz z wiekiem ma swoje zasadnicze podłoże w ogólnej liczbie internautów w danym wieku. Potwierdza to tezę o tym, że portale internetowe nie są skierowane do jakiejkolwiek grupy wiekowej, a różnice w liczbie internautów młodszych i starszych wynikają przede wszystkim z malejącej wraz z wiekiem liczbie użytkowników sieci. W powyższe założenia wpisuje się także wspominane wcześniej zagadnienie wykluczenia cyfrowego. Kolejnym istotnym czynnikiem demograficznym w badaniach nad użytkownikami sieci jest ich płeć. Procentowy udział internautów i internautek w liczbie użytkowników w Polsce jest praktycznie identyczny, a jakiekolwiek różnice mieszczą się w granicach błędu statystycznego. Podobne proporcje przekładają się również na portale horyzontalne. Powyższe zależności przedstawiono na Wykresie 6. Wykres 6. Płeć użytkowników trzech największych portali horyzontalnych w Polsce. Źródło: SimilarWeb. 49,95% 50,05% 47,74% 52,26% 49,99% 50,01% MĘŻCZYŹNI KOBIETY Onet Interia WP Z dostępnych danych wynika, nie ma istotnych różnic między liczbą mężczyzn i kobiet korzystających z największych polskich portali horyzontalnych. Na tym tle wyróżnia się jedynie Interia, którą odwiedza o ponad cztery punkty procentowe więcej kobiet, niż mężczyzn. W przypadku Onetu i Wirtualnej Polski rozkład użytkowników ze względu na płeć jest niemal identyczny i zbliża się do 50%. Badaniami nad płcią użytkowników Internetu zajmowała się również pracownia Gemius. Z danych opublikowanych w marcu 2019 roku wynika, że nie widać znaczących różnić pomiędzy płcią a odwiedzanymi stronami internetowymi. W badaniach wzięto pod uwagę 15 największych polskich serwisów www i przyporządkowano im liczbę odwiedzin z uwzględnieniem podziału na płeć. Wyniki analizy przedstawia Tabela 9. Tabela 9. Piętnaście największych serwisów wśród mężczyzn i kobiet w styczniu 2019r. MĘŻCZYŹNI KOBIETY STRONA UŻYTKOWNICY STRONA UŻYTKOWNICZKI Google.com 13 127 544 Google.com 12 968 963 Facebook 10 758 846 Facebook 11 713 417 Youtube 10 480 289 Youtube 10 045 075 Allegro 9 069 579 Allegro 9 525 454 WP.pl 8 798 609 Onet 8 809 765 Google.pl 8 736 771 WP.pl 8 618 792 Onet 8 638 243 Google.pl 8 406 899 Wikipedia 8 198 892 Wikipedia 8 125 458 OLX 7 207 208 Interia 7 323 768 Interia 7 161 092 OLX 7 211 193 Ceneo 6 221 372 Gazeta.pl 6 850 081 Gazeta.pl 6 187 631 Ceneo 6 461 458 TVN24 4 687 714 Filmweb 4 851 702 Otomoto 4 508 441 TVN24 4 239 617 O2 4 466 511 Wyborcza.pl 3 915 161 Źródło: opracowanie własne na podstawie: Gemius, „TOP 20: kobiety aktywniejsze na Facebooku, mężczyźni na Twitterze”222. 222 Gemius, TOP 20: kobiety aktywniejsze na Facebooku, mężczyźni na Twitterze, [dostępny online:] https://www.gemius.pl/wszystkie-artykuly-aktualnosci/kobiety-i-mezczyzni-w-sieci.html [dostęp: 23.11.19r.]. Analizując dane opublikowane przez pracownię Gemius można dostrzec pewne różnice w korzystaniu przez mężczyzn i kobiety z największych portali horyzontalnych w Polsce. Należy zauważyć, że choć w liczbach bezwzględnych są one niewielkie, to mają wpływ na miejsce portali w rankingu dla poszczególnych płci. Wśród mężczyzn najpopularniejszym portalem jest Wirtualna Polska, wśród kobiet Onet. Obie strony znalazły się na piątym miejscu w rankingu. Drugim portalem horyzontalnym dla mężczyzn jest Onet (miejsce siódme), zaś dla kobiet Wirtualna Polska (miejsce szóste). Interia wśród kobiet zajmuje miejsce dziewiąte, zaś wśród mężczyzn dziesiąte. Zaprezentowane wyżej dane wskazują na brak wyraźnego sprofilowania portali pod kątem płci. Nie zmienia to jednak faktu istnienia w portalach redakcji, których treści przygotowywane są przede wszystkim dla kobiet lub mężczyzn jak na przykład Onet Facet, WP Facet, Interia Menway, Onet Kobieta, WP Kobieta, Interia Kobieta. Jak wykazałem we wcześniejszych częściach pracy, w dobie Internetu trzeciej generacji zmienną zyskującą na znaczeniu staje się zaangażowanie użytkowników w treści publikowane na portalach. Zaangażowanie to może przybierać różne formy od prostej dyfuzji polegającej na udostępnieniu artykułu, poprzez napisanie komentarza, wypełnienie formularza lub ankiety, wykonanie quizu, dodanie oceny itp. Podobne działania wydłużają czas spędzany przez użytkowników na stronach. Z tej perspektywy uznać można, że współcześnie celem wydawców oraz redaktorów portali staje się koncentracja uwagi odbiorców na prezentowanych treściach, co z kolei przekłada się na zwiększoną szansę ich dalszej dyfuzji. Poziom zaangażowania użytkowników trzech największych polskich portali internetowych można mierzyć posługując się długością trwania sesji, liczbą odwiedzonych podstron w trakcie trwania korzystania z portalu oraz współczynnikiem odrzuceń223. zaprezentowano na Wykresie 7. 223 Szerzej metodologię badań opisuję w Rozdziale IV. Wykres 7. Poziom zaangażowania użytkowników Onetu, Interii i Wirtualnej Polski w treści publikowane na stronach. Źródło: SimilarWeb. Powyższe dane wskazują na kilka interesujących zależności. O ile ruch generowany przy wykorzystaniu urządzeń stacjonarnych i mobilnych rozkłada się równomiernie, o tyle czas spędzony przez użytkowników na stronach jest znacznie większy w przypadku tradycyjnych komputerów. Sytuacja taka może wynikać z kilku faktów. Urządzenia mobilne nie sprzyjają skupieniu uwagi i mogą być wykorzystywane w każdym miejscu (park, środki komunikacji miejskiej, uczelnie, praca), z kolei komputery stacjonarne wymagają od użytkownika większego skupienia uwagi, odpowiedniego miejsca do ich użytkowania co implikuje zwiększenie czasu poświęconego na korzystanie z portali horyzontalnych. Nie bez znaczenia może być też układ stron mobilnych i stron przygotowywanych na potrzeby przeglądarek na komputerach stacjonarnych. Jak pokazano na Ilustracjach 6., 7., 8. i 9. układ stron mobilnych przystosowany jest do znacznie mniejszych wyświetlaczy, a co za tym idzie zmniejsza się powierzchnia ekspozycji tekstów oraz reklam. W przypadku wersji na komputery stacjonarne najbardziej angażują treści z portalu Interia, które średnio są czytane przez 9 min. 54 s. Z kolei największe zaangażowanie na urządzeniach mobilnych generują treści Wirtualnej Polski, które użytkownicy czytają średnio przez 5 min. 39 s. WP.pl dominuje także jeśli chodzi o średnią liczbę stron odwiedzanych przez użytkownika podczas jednej sesji (odwiedzin) na portalu. W wersji na urządzenia stacjonarne będzie to średnio 10,48 różnych podstron (linków do innych artykułów zamieszczonych w portalu), zaś w przypadku wersji na urządzenia mobilne będzie to 4,97 strony. Wirtualna Polska wygrywa także w zestawieniu na najniższy współczynnik odrzuceń, który pokazuje jak wielu użytkowników wyszło z artykułu zaraz po kliknięciu w jego link. Miary tej można użyć do pokazania zgodności tytułów na stronach głównych z treściami oczekiwanymi przez odbiorców. Wskazuje ona również, że Wirtualna Polska tworzy najwięcej treści, które angażują użytkowników. 2.3. Operacjonalizacja narzędzi stosowanych w badaniach Opracowując metodologię prowadzonych badań założyłem, że dyfuzja treści w portalach internetowych opiera się na gromadzonych i przetwarzanych przez nie ogromnych ilościach danych. W toku pracy poddaję tę tezę weryfikacji, wykorzystując analizy big data dostępne w Internecie. Wiele stron w sieci udostępnia nieodpłatnie swoje zasoby i pozwala na wykorzystywanie ich w celach naukowych bądź prywatnych. Dane te są na tyle kompletne i wielowymiarowe, że można się nimi posłużyć także w badaniach nad dyfuzją treści. Teoretyczne założenia humanistyki cyfrowej dopuszczają możliwość wykorzystania zautomatyzowanych procesów i algorytmów w analizach. Jak zauważa Radosław Bomba „wyszukiwarki i aplikacje takie jak Ngam Viewer czy Google Trends lub Ice Rocket w ciągu sekundy prześwietlają ogromne korpusy danych, których pojedynczy badacz, a nawet zespół badawczy nie byłby w stanie pobieżnie przejrzeć w ciągu dziesięcioleci. Aplikacje wizualizujące działanie portali w czasie rzeczywistym obliczają i wizualizują globalną aktywność użytkowników”224. Z powyższych względów, zgodnie z założeniami humanistyki cyfrowej w badaniach na potrzeby niniejszej pracy zdecydował posłużyć się narzędziami SimilarWeb, FanpageKarma i Google Trends. 224 R. Bomba, Narzędzia…, op. cit. s. 67. 225 Google Trends [dostępny online:] https://trends.google.pl/trends/ Google Trends to aplikacja udostępniona przez Google, która pozwala na analizowanie trendów występujących w wynikach wyszukiwania na świecie bądź w danym regionie225. Umożliwia ona także porównywanie fraz i wyrażeń kluczowych oraz obserwację zmian występowania danego trendu w ujęciu czasowym i regionalnym. Aby zachować logikę wywodu, a jednocześnie móc lepiej wprowadzić Czytelnika w analizowane zagadnienia, w tym miejscu jedynie wspominam o zastosowanej aplikacji, bardziej szczegółowo opisując je w rozdziale dotyczącym dyfuzji poprzez wyszukiwarki. Drugim wykorzystanym przeze mnie narzędziem jest aplikacja FanpageKarma, umożliwiająca analizę ogólnodostępnych profili w mediach społecznościowych226. Program dostarcza m.in. informacji na temat wzrostów lub spadków liczby użytkowników, ilości zamieszczanych postów, sumuje interakcję (polubienia, komentarze i udostępnienia) oraz pozwala na określenie zaangażowania prosumentów w publikowane treści. „FanpgeKarma” wyodrębnia też grupy użytkowników oraz pozwala porównywać i przekształcać dane z różnych obszarów. Z podobnych względów jak w przypadku Google Trends szczegółowy opis narzędzia znajduje się w rozdziale dotyczącym dyfuzji poprzez media społecznościowe. 226 FanpageKarma [dostępny online:] https://www.fanpagekarma.com/ 227 SimilarWeb [dostępny online:]: https://similarweb.com Trzecią wykorzystaną aplikacją jest SimilarWeb227. To algorytm umożliwiający dostęp i analizy big data, także z zakresu dyfuzji treści przez portale internetowe. Aplikacja pozwala na porównywanie danych dotyczących źródeł ruchu na największych polskich i zagranicznych portalach oraz analizę sposobu i udziału poszczególnych kanałów dyfuzji w ogólnym ruchu na stronach portali. Algorytm daje również wgląd w podstawowe dane dotyczące użytkowników oraz popularności portali internetowych. SimilarWeb umożliwia określenie między innymi.: • liczby odwiedzin strony internetowej oraz miejsca w rankingu krajowym i globalnym pod względem liczby użytkowników, • liczby użytkowników korzystających z komputerów osobistych i urządzeń mobilnych, • średniego czasu spędzonego przez użytkownika na stronie (zaangażowania użytkowników w publikowane treści), • uśrednioną liczbę podstron, którą odwiedza użytkownik podczas jednej sesji/wizyty, • uśrednionego współczynnika odrzuceń dla danej strony, • powiązań strony internetowej z aplikacjami mobilnymi, które się do niej odnoszą, • krajów, z których logują się użytkownicy generujący ruch na stronie, • najważniejszych źródeł dyfuzji treści (ruchu), • stron, które zyskują użytkowników dzięki przekierowaniom ruchu, • ruchu generowanego poprzez wyświetlanie reklam. SmiliarWeb umożliwia porównywanie danych z innymi stronami z otoczenia konkurencyjnego, co jest szczególnie przydatne w analizie trzech głównych polskich portali – Onetu, Wirtualnej Polski i Interii. Algorytm ma jedną zasadniczą wadę, ponieważ w swojej podstawowej wersji nie udostępnia danych pochodzących z różnych przedziałów czasowych. Chcąc zatem odnotować zmiany w dłuższej perspektywie (np. co kwartał) należy zgromadzić odpowiednie dane generowane przez SimilarWeb a następnie porównać je dokonując analiz tradycyjnymi metodami. Fragment ogólnego raportu generowanego przez SimilarWeb dla strony internetowej zaprezentowano na Ilustracji 10. Ilustracja 10. Fragment ogólnego raportu wygenerowanego dla portalu Onet przez algorytm SimilarWeb. Źródło: SimilarWeb. SimilarWeb to aplikacja umożliwiająca dostęp do danych, gromadzonych przez 80 milionów stron internetowych oraz 3 miliony aplikacji mobilnych228. Algorytm przeprowadza analizy big data w oparciu o 240 zmiennych i udostępnia dane zbierane w 60 państwach świata. Aplikacja działa w oparciu o dane udostępniane przez same strony internetowe, dane dostępne publicznie oraz dane pozyskane z badań z udziałem panelistów z kilkudziesięciu krajów (w tym z Polski). SimilarWeb jest narzędziem częściowo odpłatnym. Jego wybór został dokonany po uzyskaniu rekomendacji pracowników portali internetowych, którzy wskazywali go jako najpełniejsze, wieloaspektowe narzędzie służące do analizy danych dotyczących stron www. Z przeprowadzonych wywiadów eksperckich wynika, że równie użytecznym algorytmem jest Google Analitics, jednak ze zgromadzonych za jego pośrednictwem danych nie można skorzystać, nie naruszając zasad prywatności firm. 228 About SimilarWeb, [dostępny online:] https://www.similarweb.com/corp/about/ [dostęp 22.10.19r.]. 229 M. Szpunar, Nowe-stare… op.cit.. s. 21. W przypadku badań nad dyfuzją treści kluczowa wydaje się interpretacja różnorodnych danych zastanych. Jak zauważa Magdalena Szpunar „tradycyjne medium nie może przetrwać na własną rękę, ale zachowuje swoje funkcje poprzez scalenie lub włączenie się w nowe medium. Sytuacja ta implikuje stadium konwergencji. Medium niejako zmuszone jest wchodzić w interakcję z innymi technologiami”229. Słuszność powyższej tezy potwierdza fakt dzielenia się danymi gromadzonymi przez portale z innymi firmami, posiadającymi algorytmy umożliwiające pogłębione analizy big data. Przyjęta metodologia pracy zakłada, że badania nad dyfuzją treści powinny obejmować jak najszerszy zakres danych, w tym dane profili portali w mediach społecznościowych, dane wykorzystywane w celu optymalizacji artykułów pod kątem lepszego pozycjonowania w wyszukiwarkach internetowych, dane dotyczące algorytmizacji wydawania i personalizacji doboru treści. Zakładam, że dobór takiego obszaru badawczego pozwoli na wskazanie i opis nowych kanałów dyfuzji. Przyjętą przeze mnie metodologię badań, uzupełniają wywiady z pracownikami największych polskich portali internetowych, które omawiane są w ostatnim rozdziale pracy. 2.4. Główne kanały dyfuzji treści w portalach Odpowiednim wprowadzeniem w badania nad problematyką kanałów dyfuzji treści wydaje się przeprowadzenie porównawczej analizy źródeł ruchu, generujących największą liczbę odwiedzin na portalach Onet, WP i Interia230. W badaniach nad zachowaniem użytkowników Internetu za podstawowe źródła ruchu uznaje się wyszukiwarki, media społecznościowe, odwołania z innych stron, ruch bezpośredni, reklamę oraz e-mailing231. Źródła te można określić jako najpopularniejsze kanały dyfuzji treści. Wynika to z faktu, że każdy prosument odwiedzający daną witrynę musi przyjść z określonego źródła232, co zostaje zarejestrowane w chmurze danych strony, a następnie jest udostępniane algorytmom katalogującym ruch w sieci. Z perspektywy użytkownika można stwierdzić, że wykorzystuje on wyżej wymienione kanały dyfuzji, aby dotrzeć do interesującej go strony internetowej oraz skorzystać z jej zasobów. W tym ujęciu nie ma większego znaczenia sposób interakcji ze witryną. Dla jego określenia w nauce przyjmuje się termin „konwersja”, który oznacza wykonanie przez użytkownika określonego zadania (spełnienie celu) na stronie, na przykład przez złożenie zamówienia i kupienie towaru, utworzenie konta internetowego, odnalezienie i przesłanie dalej informacji, polecenie treści, odtworzenie multimediów233. Poczyniona przeze mnie operacjonalizacja definicji „treści”, będącej przedmiotem dyfuzji w sieci, integruje w sobie również wszelkie konwersje dokonywane przez użytkowników. 230 S. Jana, S. Chatterjee, Quantifying Web‐site visits using Web statistics: an extended cybermetrics study, „Online Information Review”, Vol. 28 No. 3, s. 193. 231 H. Pakkala, K. Presser, T. Christensen, Using Google Analytics to measure visitor statistics: The case of food composition websites. „International Journal of Information Management”, nr 32, 2012, s. 506. 232 B. Plaza, Monitoring web traffic source effectiveness with Google Analytics, „Aslib Proceedings”, vol. 61 nr 5, 2009, s. 477. 233 A. Strzelecki, Zastosowanie systemów analityki internetowej do analizy efektywności kanałów ruchu i handlu elektronicznego, „Prace Naukowe. Uniwersytet Ekonomiczny w Katowicach. Modele techniczno-społeczne wirtualizacji i udostępniania na żądanie zasobów IT”, 2016 s. 265. W badaniach nad źródłami dyfuzji posłużono się opisanym wcześniej algorytmem SimilarWeb. Analiza obejmuje półroczny okres, który dzieli się na dwa kwartały. Pierwszy etap obejmuje dane zgromadzone od lipca do września 2019 roku, drugi od października do grudnia 2019 roku. Powodem wyboru takiego przedziału czasowego jest założenie, że internauci inaczej korzystają z portali w porze wakacyjnej, inaczej zaś w pozostałych miesiącach roku. Analiza może zatem wskazać na różnice występujące w odmiennych okresach, a co za tym idzie pomóc w sprawdzeniu hipotezy postawionej we wstępie do pracy, zakładającej, że dynamicznie zmieniająca się rzeczywistość medialna wpływa na politykę wydawniczą portali internetowych. W ramach przygotowań do właściwych badań, wygenerowano dane dotyczące najpopularniejszych źródeł dyfuzji dla wszystkich stron internetowych z całego świata. Ich znajomość może pomóc w lepszym zrozumieniu różnych kanałów rozprzestrzeniania treści, wykorzystywanych przez portale w Polsce. Wyniki przedstawiono na Wykresie 8. Wykres 8. Najpopularniejsze kanały dyfuzji treści na świecie. 0,36% 0,36% 0,37% 0,44% 1% 1% 1% 11% 79% YAHOO YANDEX WYSZUKIWANIE WIDEO WYSZUKIWANIE OBRAZÓW FACEBOOK YOUTUBE E-MAIL GOOGLE BEZPOŚREDNI (DIRECT) Źródło: opracowanie własne na podstawie SimilarWeb. Jak wynika z powyższego wykresu dominującym źródłem ruchu jest ruch bezpośredni (z j. ang. direct), który generuje 79% wszystkich odwiedzin stron internetowych. Wskazuje to wyraźnie na fakt, że głównym kanałem dyfuzji treści w ramach portali internetowych pozostają ich strony główne. Uogólniając można byłoby założyć, że aby zwiększyć szansę na dyfuzję treści należałoby przede wszystkim budować silną świadomość marki strony internetowej. Dzięki temu prosumenci łatwiej zapamiętywaliby adresy stron i generowali ruch wpisując je do przeglądarek. Jednak to błędne założenie, które często bywa powielane, lub pomijane w wielu badaniach dotyczących ruchu w sieci234. Wśród ekspertów z zakresu analityki Internetu zwraca się uwagę na fakt, że algorytmy kategoryzując ruch jako direct nie biorą pod uwagę wielu zmiennych. Analizując ruch bezpośredni, należy pamiętać o kilku istotnych czynnikach mających nań wpływ235: 234 A. Kemmis, The Difference Between Direct and Organic Wesite Traffic Sorces, [dostępny online:] https://www.smartbugmedia.com/blog/what-is-the-difference-between-direct-and-organic-searchtraffi c-sources [dostęp: 22.12.19r.]. 235 A. Kaushik, Excellent Analytics: Make Love To Your Direct Traffic, [dostępny online:] https://www.kaushik.net/avinash/excellent-web-analytics-tip-analyze-direct-traffic/[dostęp: 22.12.19r.]. 236 System operacyjny opracowany na potrzeby urządzeń mobilnych przez firmę Apple. 237 D. Sullivan, Safari Shifts To Google Secure Search in iOS 6, Causing Search Referrer Data To Disappear, [dostępny online:] https://searchengineland.com/ios-6-removes-all-google-search-referer-data-134560 [dostęp: 22.12.19r.]. 238 A. Kemmis, The Difference…, op cit. • jeśli algorytm nie potrafi zidentyfikować kanału dyfuzji automatycznie zalicza go do ruchu direct; różne sytuacje potwierdziły tę zależność, np. w 2012 roku po aktualizacji systemu iOS6236 znaczna część ruchu generowanego z wyszukiwarek została w algorytmach analitycznych zastąpiona przez ruch direct; jak się okazało, algorytm Google nie potrafił rozpoznać zmian, a co za tym idzie przyporządkował je automatycznie do ruchu bezpośredniego237; • ruch generowany przez pracowników organizacji; będzie on zależał od wielkości firmy, która zatrudnia pracowników i posiada własną stronę internetową; w szczególnej sytuacji znajdują się korporacje medialne, ponieważ w założeniu ich pracownicy muszą wciąż na nowo odwiedzać własne portale internetowe238; • ruch generowany przez klientów; prosumenci zainteresowani ofertą danej strony internetowej będą wpisywać jej adres bezpośrednio w przeglądarkę, ze względu na łatwość i szybkość takiej formy pozyskania treści; największy ruch tego typu generować będą witryny świadczące usługi, sklepy internetowe, portale branżowe oferujące konkretne rozwiązania ważne dla klientów oraz portale horyzontalne; • faktyczny ruch pochodzący od osób znających adres strony internetowej; znaczenie ma tutaj świadomość marki wśród użytkowników i kampanie marketingowe prowadzone poza siecią; coroczne badania organizowane przez „Press” ukazują siłę marek portali internetowych w Polsce w oparciu o liczbę publikacji, ich zasięg oraz wydźwięk239; • ruch generowany poprzez kliknięcie w link znajdujący się w programie obsługującym pocztę e-mail (jak np. „Microsoft Outlook”), dokumencie zapisanym na komputerze, komunikatorze internetowym (także przez SMS) i aplikacji mobilnej również zlicza się do ruchu direct; • ruch przekierowywany do strony uznawanej przez Google za „niebezpieczną” (nie posiadającą odpowiednich certyfikatów bezpieczeństwa) jest także katalogowany jako ruch direct240; • wzmocnienie powyższych czynników następuje poprzez wykorzystywanie zakładek, historii i podpowiedzi w przeglądarkach internetowych; każde kliknięcie w taką zakładkę zaliczane jest również do ruchu bezpośredniego. 239 Top Marka 2019. Wirtualna Polska numerem 1 wśród portali internetowych, [dostępny online:] https://www.money.pl/gospodarka/top-marka-2019-wirtualna-polska-numerem-1-wsrod-portali-intern etowych-6441077652428929a.html [dostęp 22.12.19r.]. 240 A. Kemmis, The Difference…, op. cit. 241 G. McKenna, Experiment Shows Up To 60% Of “Direct” Traffic Is Actually Organic Search. [dostępny online:] https://searchengineland.com/60-direct-traffic-actually-seo-195415 [dostęp: 22.12.19r.]. Ponieważ ruch w sieci katalogowany jako direct budził kontrowersje wśród analityków, firma Groupon w 2014 roku przeprowadziła eksperyment, mający sprawdzić co się na niego składa241. W tym celu strona główna Groupon oraz jej najwyższe poziomy zostały wyłączone z katalogu Google na około 6 godzin. Jest to tak zwana deindeksacja, która czyni witrynę internetową niewidoczną dla algorytmów, a co za tym idzie uniemożliwia jej bezpośrednie odnalezienie w wyszukiwarce. Wyłączenie nie obejmowało całej strony Groupon, w Google można było znaleźć jej podstrony. Powodem takiej decyzji było założenie, że na stronę główną oraz najważniejsze serwisy wielu użytkowników wchodzi wpisując adres do przeglądarki. Wyniki eksperymentu dla pozostałych części strony Groupon przedstawia Wykres 9. Wykres 9. Wyniki eksperymentu pokazującego zależność między ruchem katalogowanym jako bezpośredni a ruchem generowanym poprzez wyszukiwarki. Źródło: G. McKenna, Experiment Shows Up To 60% Of “Direct” Traffic Is Actually Organic Search. Pomarańczowa linia wykresu pokazuje poziom ruchu w dniu eksperymentu, zaś fioletowa odnosi się do analogicznego dnia tydzień wcześniej, ukazując normalny poziom ruchu. Górny wykres to ruch katalogowany jako bezpośredni, w dolnej części znajduje się ruch generowany przez wyszukiwarki. Eksperyment pokazał, że dyfuzja katalogowana przez algorytmy jako direct w dużej części opiera się na ruchu pochodzącym z wyszukiwarek. W ciągu 6 godzin trwania eksperymentu poziom ruchu generowanego dzięki Google, spadł niemal do zera. W tym samym czasie poziom ruchu katalogowanego jako bezpośredni spadł o ok. 60% w przypadku komputerów stacjonarnych i o ok. 50% w przypadku urządzeń mobilnych. Wyniki eksperymentu sugerują, że duża część ruchu ocenianego przez algorytmy jako bezpośredni, w rzeczywistości pochodzi z wyszukiwarek. Jak wskazywałem wcześniej, źródła tego błędu mogą tkwić w kodach stron i linkach uznawanych przez algorytmy za niebezpieczne lub pochodzące z nieznanego źródła. Eksperyment dowodzi także, że wyniki podawane przez algorytmy takie jak Google Analitics i SimilarWeb powinny być korygowane na korzyść zwiększenia procentowego udziału wyszukiwarek w dyfuzji treści. Ponieważ nie przeprowadzono jak do tej pory kolejnych eksperymentów udowadniających powyższe twierdzenia, w dalszej części pracy nie będę dokonywał korekt wyników udostępnianych przez algorytm SimilarWeb. Drugim najczęstszym kanałem dyfuzji treści na świecie są wyszukiwarki internetowe, które generują 11% całego ruchu w sieci. Jak wskazano wcześniej można z dużą dozą prawdopodobieństwa założyć, że dyfuzja odbywająca się za ich pomocą jest o przynajmniej 20-30% większa, niż wskazywałyby na analizy big data. Hipotezę tę wzmacnia fakt, że SimilarWeb wśród najpopularniejszych kanałów dyfuzji wymienia w sumie 5 pochodzących z wyszukiwarek. Oprócz Google będą to wyszukiwania za pomocą obrazów, wyszukiwania wideo, wyszukiwarki Yandex i Yahoo. Po ok. 1% ruchu w sieci generują także Facebook, linki zamieszczane w poczcie e-mail oraz Youtube. Posiadając podstawową wiedzę na temat największych kanałów dyfuzji na świecie, przeprowadzono analogiczną analizę, dotyczącą źródeł ruchu charakterystycznych dla polskich portali horyzontalnych. W tym celu algorytm SimilarWeb ustawiono w tryb analizy porównawczej i wprowadzono adresy Onetu, Interii i Wirtualnej Polski. Następnie odczytano dane dotyczące źródeł ruchu, powtarzając tę operację dwa razy: w październiku 2019 i w styczniu 2020 roku. Powodem takiego doboru dat jest fakt, że algorytm w swojej podstawowej wersji pozwala na generowanie danych pochodzących maksymalnie z trzech ostatnich miesięcy. Dzięki dwukrotnemu wykorzystaniu algorytmu w odstępie trzech miesięcy uzyskano informacje na temat najpopularniejszych kanałów dyfuzji w dwóch ostatnich kwartałach 2019 roku. I kwartał zawiera dane od 1 lipca do 31 września 2019, II kwartał od 1 października 2019 do 31 grudnia 2019. Jak sygnalizowałem wcześniej, taki dobór czasu badań motywowany jest faktem przedstawienia możliwie najpełniejszych i najbardziej aktualnych informacji dotyczących dyfuzji oraz próbą znalezienia ewentualnych różnic, jakie zaszły w kolejnych kwartałach roku. Dane obejmują liczbę sesji oraz procentowy udział danego źródła w całym ruchu portalu. Dane wygenerowane za pomocą algorytmu SimilarWeb zaprezentowano w Tabeli 10. Tabela 10. Najważniejsze kanały dyfuzji treści Onetu WP i Interii od lipca do września (I kwartał) oraz od października do grudnia (II kwartał) 2019 roku. Portal Onet WP Interia I kwartał 07-09.19r. II kwartał 10-12.19r. I kwartał 07-09.19r. II kwartał 10-12.19r. I kwartał 07-09.19r. II kwartał 10-12.19r. Direct 245,4 mln (73,04%) 245,8 mln (74,13%) 297,4 mln (68,78%) 259,3 mln (60,54%) 183,3 mln (72,23%) 195,7 mln (74,2%) Przekierowania z wyszukiwarek 64,6 mln (19,21%) 58,6 mln (17,68%) 70,7 mln (16,34%) 72,5 mln (16,93%) 62,9 mln (22,9%) 54 mln (20,48%) Social media 13,4 mln (3,99%) 14,5 mln (4,38%) 17,9 mln (4,15%) 20,3 mln (4,74%) 7,8 mln (2,84%) 8,4 mln (3,18%) E-mail 3,2 mln (0,95%) 2,9 mln (0,86%) 33,1 mln (7,65%) 62,5 mln (14,58%) 3,2 mln (1,17%) 1,9 mln (1,16%) Przekierowania z innych stron 8,9 mln (2,64%) 8,9 mln (2,69%) 12,7 mln (2,95%) 12,9 mln (3,02%) 1,6 mln (0,59%) 1,9 mln (0,7%) Wyszukiwania płatne 438,6 tys. (0,13%) 696,8 tys. (0,21%) 436,2 tys. (0,1%) 555,5 tys. (0,13%) 4,8 tys. (<0,01%) 4,2 tys. (<0,01%) Przekierowania z reklam 98,3 tys. (0,03%) 139,4 tys. (0,04%) 145 tys. (0,03%) 254,8 tys. (0,06%) 721,9 tys. (0,26%) 724,2 tys. (0,27%) Źródło: opracowanie własne na podstawie SimilarWeb. Kompilacja powyższych danych sugeruje, że głównym źródłem ruchu największych polskich portali internetowych jest ruch bezpośredni. Oznacza to, że głównym kanałem dyfuzji treści dla Onetu, Wirtualnej Polski i Interii, pozostają strony główne portali, które użytkownicy wpisują z pamięci lub wybierają z zakładek. Ruch bezpośredni w polskich portalach jest nieco niższy, niż średnia światowa wynosząca 79%. Porównanie danych kwartał do kwartału wskazuje, że ruch bezpośredni wzrósł nieznacznie w przypadku Onetu i Interii, co może potwierdzać tezę o tym, że w miesiącach wakacyjnych i letnich mniej użytkowników korzysta z usług portali horyzontalnych. Wyjątkiem jest Wirtualna Polska, gdzie w analizowanych okresach ruch typu direct zmalał o blisko 8 punktów procentowych, przy jednoczesnym wzroście ruchu z poczty e-mail o blisko 7 punktów procentowych. Powodem takiej sytuacji może być poprawa jakości kodów zliczających i migracja danych poczty e-mail Wirtualnej Polski na bezpieczniejsze serwery, co miało miejsce w 2019 roku242. Warto również odnotować, że dyfuzja poprzez e-mail w przypadku 242 Paweł Milewski został dyrektorem poczty WP. Nowe funkcjonalności w usłudze, [dostępny online:] https://www.wirtualnemedia.pl/artykul/pawel-milewski-dyrektor-poczta-wp-nowe-funkcjonalnosci-w-usludze [dostęp: 22.12.19r.]. Wirtualnej Polski w całym analizowanym okresie była znacząco większa, niż na pozostałych portalach. Zaprezentowane w Tabeli 10. dane wskazują, że drugim najważniejszym kanałem dyfuzji treści polskich portali horyzontalnych są wyszukiwarki internetowe. Ruch generowany za ich pomocą, głównie dzięki optymalizacji materiałów na potrzeby algorytmu Google, stanowi w przypadku Onetu 19,21% (I kwartał) i 17,68% (II kwartał), WP – 16,34% (I kwartał) i 16,93% (II kwartał), Interii – 22,9% (I kwartał) i 20,48% (II kwartał) całości ruchu w ogóle. Przekłada się to na dziesiątki milionów wizyt w ujęciu miesięcznym. Analizowane dane wskazują, że co piąty użytkownik trafia na portale właśnie poprzez wyszukiwarki internetowe. Tak duży udział Google w dyfuzji treści powoduje wzrost inwestycji portali w działanie nastawione na optymalizację stron internetowych. Potwierdza to zarazem tezę stawianą we wstępie do pracy, mówiącą o tym, że portale rozwijają nowe formy i strategie docierania do użytkowników sieci z powodu dynamicznie zmieniającej się rzeczywistości technologicznej i medialnej. Ze względu na ogromne znaczenie jakie dla dyfuzji treści mają współcześnie wyszukiwarki, w dalszej części pracy prezentuję jej szczegółową analizę. Na trzecim miejscu wśród kanałów dyfuzji znajdują się media społecznościowe, które wygenerowały kwartał do kwartału 3,99%-4,38% ruchu Onetu, 4,15%-4,74% ruchu WP i 2,84%-3,18% ruchu Interii. W ciągu sześciu miesięcy dzięki dyfuzji poprzez social media, portale odnotowały ruch liczony w ponad 82,3 milionów sesji. Z tego względu w dalszej części pracy zajmę się pogłębioną analizą dyfuzji treści, zachodzącej poprzez media społecznościowe. Kolejnym źródłem ruchu ważnym dla portali są przekierowania z linków znajdujących się na innych stronach internetowych. Takie linkowanie stanowi 2,64%-2,69% ruchu Onetu, 2,95%-3,02% ruchu Wirtualnej Polski i 0,59%-0,7% ruchu Interii. Portale próbują również dotrzeć do nowych użytkowników poprzez linki sponsorowane (głównie w wyszukiwarce Google) i reklamy. Ten rodzaj dyfuzji odpowiada jednak za niewiele ponad 0,1% wszystkich generowanych na portalach horyzontalnych sesji. Porównując dane dla polskich portali z danymi na temat źródeł ruchu w całej sieci, można zauważyć, że średnia liczba odwiedzin stron głównych Onetu, Wirtualnej Polski i Interii (ruch bezpośredni) jest o kilka punktów procentowych niższa, niż średnia światowa. Z kolei portale odnotowują o kilka punktów procentowych wyższy ruch z wyszukiwarek, mediów społecznościowych i poczty e-mail. Może to wynikać z faktu, że portale horyzontalne w Polsce przykładają większą wagę do dyfuzji zachodzącej za pomocą wyszukiwarek, mediów społecznościowych oraz poczty elektronicznej, co może stanowić kolejne potwierdzenie hipotezy stawianej we wstępie pracy. SimilarWeb umożliwia również wygenerowanie raportu, porównującego procentowy udział różnych kanałów dyfuzji w ruchu Onetu, WP i Interii. Analiza taka ukazuje konkretne kanały dyfuzji, w tym także strony internetowe, które przekierowują ruch do portali. Wśród nich znajdują się strona główna (ruch direct), wyszukiwarka Google, e-maile, News Search (Wiadomości Google), Youtube, Fakt.pl, wyszukiwarka obrazów Google, nk.pl oraz Twitter. W sumie źródła te stanowią 96,97% całego ruchu portali horyzontalnych. Szczegółowe zestawienie największych źródeł ruchu na portalach Onet, WP i Interia oraz procentowy udział stron w różnych kanałach dyfuzji w dwóch analizowanych okresach przedstawiono w Tabelach 11. i 12. Tabela 11. Dziesięć największych źródeł ruchu na portalach Onet, WP i Interia w okresie od lipca do września 2019 roku. Źródło: SimilarWeb. Tabela 12. Dziesięć największych źródeł ruchu na portalach Onet, WP i Interia w okresie od października do grudnia 2019 roku. Źródło: SimilarWeb. Porównanie danych zawartych w powyższych tabelach pozwala ocenić, który portal najefektywniej wykorzystuje poszczególne kanały dyfuzji. Zestawiając ze sobą dwa ostatnie kwartały 2019 roku można zauważyć spadek ruchu direct o ponad 2 punkty procentowe oraz wzrost ruchu zaklasyfikowanego jako e-mailing o niemal 3 punkty procentowe. Analiza potwierdza wcześniejsze ustalenia dotyczące dyfuzji zachodzącej za pośrednictwem poczty e-mail Wirtualnej Polski. Portal WP w obu analizowanych kwartałach był zdecydowanym liderem, jeśli chodzi o udział w ruchu generowanym poprzez e-mailing. W okresie od października do grudnia 2019 roku zwiększył swój udział w tym kanale dyfuzji z 83,7% do 91,4%. Powodem takiej dominacji mogą być wspomniane wcześniej usprawnienia technologiczne, dokonane w 2019 roku przez Wirtualną Polskę. Należy pamiętać, że dane w tym zakresie mogą być niepełne, bowiem ruch z poczty Onetu i Interii prawdopodobnie jest wliczany do ruchu direct tych portali. Przeprowadzona analiza wykazała, że Wirtualna Polska najlepiej wykorzystuje najważniejsze kanały dyfuzji, w tym ruch ze stron głównych, ruch generowany przez wyszukiwarki, e-mailing, Facebooka, wyszukiwanie poprzez obrazy, wyszukiwanie wiadomości i Youtube. Onet jest pierwszy jeśli chodzi o ruch z Twittera, nk.pl oraz Fakt.pl. Warto jednak odnotować, że ruch generowany dla Onetu ze stron Fakt.pl i nk.pl jest wynikiem współdziałania w ramach tego samego koncernu – Ringier Axel Springer. Liczba odwiedzin jest na tyle znacząca, że została ujęta w zestawieniu dziesięciu najważniejszych kanałów dyfuzji. Podobne przekierowania ze stron wchodzących w skład grup medialnych stosują także Wirtualna Polska oraz Interia. Jednak generowany w ten sposób ruch jest na tyle niewielki, że nie znalazł się w zestawieniu SimilarWeb. Podobne współdzielenie się linkami w ramach jednej grupy medialnej, można nazwać specyficznym i stosunkowo nowym kanałem dyfuzji treści, co stanowi potwierdzenie hipotezy stawianej we wstępie do pracy. Porównanie dwóch kwartałów pokazuje, że Wirtualna Polska w ciągu półrocza umocniła swoją pozycję jako portalu dominującego w niemal wszystkich kanałach dyfuzji, kosztem Onetu i Interii. 2.5. Algorytm w mediach Jak wykazałem w poprzednim podrozdziale, głównym kanałem dyfuzji treści w polskich portalach horyzontalnych pozostają ich strony główne. W ramach hipotezy stawianej we wstępie do pracy można założyć, że strony główne nie pozostają statyczne i niezmienne, ale stosują nowy rodzaj dyfuzji, jakim jest algorytmizacja wydawania oraz personalizacja prezentowanych treści. Taka ewolucja portali w stronę sieci semantycznej, oznaczałaby wykorzystywanie algorytmów w dyfuzji. W ciągu ostatnich kilkudziesięciu lat wielokrotnie opisywano możliwość przejęcia przez maszyny czynności wykonywanych dotychczas wyłącznie przez człowieka. Podobną wizję snuł już Alan Turing niemal 70 lat temu243. Porównał on zdolności mózgu do mocy obliczeniowej maszyny (komputera). Turing opracował również eksperyment (tzw. test Turinga), który sprawdza umiejętności komunikacyjne sztucznej inteligencji. Polega on na tym, że osoba badana rozmawia jednocześnie z człowiekiem i komputerem. Jej zadaniem jest odgadnięcie, kto jest maszyną, a kto człowiekiem. Jak dotąd naukowcom nie udało się opracować algorytmu, który potrafiłby zastąpić ludzi244. Wciąż udoskonalane są jednak programy, które przy wykorzystaniu ogromnych zbiorów danych identyfikują potrzeby odbiorców i potrafią dostosować prezentowaną treść do konkretnego użytkownika (personalizacja). 243 A. Turing, Maszyna licząca a inteligencja, tłum. D. Gajkowicz, B. Chwedeńczuk (red.) „Filozofia umysłu”, Wyd. Aletheia, Warszawa 1995, s. 272. 244 M. Wawer: Robot Journalism – czy w newsroomach przyszłości będą pracować automaty?, „Zeszyty Prasoznawcze” T.61, nr 2 (234), Kraków 2018, s. 178. Wydaje się, że prezentowane wcześniej definicje algorytmu wymagają w tym miejscu doprecyzowania. Według opisu encyklopedycznego algorytm to „przepis postępowania prowadzący do rozwiązania ustalonego problemu, określający ciąg czynności elementarnych, które należy w tym celu wykonać”245. Według Jana Krefta można mówić także o humanistycznej perspektywie tego zagadnienia. W takim ujęciu algorytm przestaje być jedynie matematyczną procedurą a „staje się socjotechnologicznym połączeniem: algorytmu (w rozumieniu technologicznym), danych i hardware’u – osadzonych w środowisku ludzi i nie-ludzi traktowanych na równych prawach”246. W ujęciu humanistycznym ważne zatem wydaje się rozumienie algorytmu, jako procesu kształtowanego przez decyzje społeczne, polityczne, gospodarcze, estetyczne i inne, który jest wynikiem działań programistów. Karol Piekarski zauważa, że algorytmizacja jest możliwa dzięki temu, że „komputer stał się metamedium, czyli podstawowym narzędziem produkcji, przetwarzania i dystrybucji informacji, w związku z czym wszystkie treści i komunikaty (…) przyjęły postać liczbową, tzn. można je zapisać w postaci zero-jedynkowego kodu”247. 245 L. Drabik, E. Sobol, Słownik języka polskiego, PWN, Warszawa 2007. 246 J. Kreft, Władza algorytmów mediów – między reifikacją a rynkiem, „Zarządzanie w kulturze”, nr 19, z. 1, 2018, s. 13. 247 K. Piekarski, Kultura…, op. cit. s. 101. 248 Ibidem, s. 102. 249 M. Szpunar, Kultura algorytmów, „Zarządzanie w kulturze” nr 19, z.1, 2018 s. 5. 250 Ibidem, s. 2. Można zatem powiedzieć, że w ujęciu nauk o komunikowaniu pojęcie algorytmu zyskuje nowe znaczenie, sytuując go jako podmiot mający dzięki Internetowi realny wpływ na społeczeństwo i kulturę248. Magdalena Szpunar zwraca uwagę, że „aktorzy pozaludzcy (non-humans) stanowią dzisiaj ważne i coraz częściej dostrzegalne ogniwo relacji społecznych. W optyce takiej owi pozaludzcy aktorzy traktowani są jako posiadający własne interesy, autonomię, nierzadko niezależną od intencji twórcy. Takie myślenie o roli non-human actors reorganizuje nasz sposób myślenia o socjologii jako nauce”249. Autorka zauważa, że kultura algorytmów opiera się na redukcji, upraszczaniu i budowaniu modeli oraz że współcześnie wszystko zostaje zredukowane do cyfr, co ma na celu maksymalizację zysków. W tym ujęciu krakowska medioznawczyni określa algorytmy „technologią definiującą”, która kształtuje nasz sposób myślenia i postrzegania świata250. Powyższe rozważania wzmacniają tezę, sytuującą algorytmy jako kluczową technologię, wykorzystywaną w niemal każdej dziedzinie życia, w tym także w mediach. Dzięki wykorzystaniu big data, mocy obliczeniowych komputerów i odpowiednich algorytmów możliwe staje się na przykład zredukowanie liczby personelu potrzebnego do obsługi fabryki z tysiąca do 160 osób251. Jak wspominałem wcześniej, w tym kontekście w dyskursie naukowym funkcjonują pojęcia gospodarki cyfrowej, przemysłu 4.0 oraz Internetu trzeciej generacji. W mediach działających w sieci, algorytmy mogą być więc wykorzystywane do tworzenia informacji, zbierania i przetwarzania danych o użytkownikach, a tym samym do dostarczania im spersonalizowanych treści, co w konsekwencji ma prowadzić do maksymalizacji zysków korporacji medialnych. 251 A. Lemański Maszyny w big data z perspektywy socjologii pracy. Czy algorytmy pomogą nam pracować z dużymi zbiorami danych? „Media Kultura Komunikacja Społeczna” nr 14/3, 2018 r., s. 41. 252 J. Kreft, Władza op. cit. s. 13. 253 V. Mayer-Schonberger, K. Cukier, Big Data. Rewolucja, która zmieni nasze myślenie, pracę i życie, Wyd. MT Biznes, Warszawa. 2014, s. 198. 254 J. Piwowar, Uprzedzenia w algorytmach, „Humanizacja pracy. Technologiczno-społeczny wymiar sztucznej inteligencji. Władza algorytmów?”, nr 3(297), 2019 s. 40. W dyskursie naukowym sytuacja taka rodzi obawy. Jan Kreft zauważa, że algorytmy wpływają na działania i decyzje ludzi w sposób ukryty, taki którego odbiorcy nie rozumieją252. Dzieje się tak m.in. dlatego, że algorytmy stanowią własność prywatnych firm i co za tym idzie objęte są tajemnicą. Takie niezrozumiałe dla przeciętnego prosumenta algorytmy potrafią analizować wzory interakcji użytkowników ze stronami, co w konsekwencji pozwala na prognozowanie zachowania odbiorców253. Coraz szersze wykorzystywanie algorytmów w różnych dziedzinach życia takich jak finanse, ubezpieczenia, bankowość czy media prowadzi do sytuacji, w której program ma realny wpływ na życie ludzi. Innym niebezpieczeństwem związanym z upowszechnianiem algorytmów jest fakt, że tworzone są one przez ludzi (programistów), którzy nie są obiektywni w swoich działaniach i ową nieobiektywność mogą przenosić nawet w sposób nieświadomy na tworzone przez siebie programy254. Algorytmy mogą również dokonywać błędnych ocen w oparciu o nieobiektywne dane wejściowe, zaś analizując dane nie uwzględniają doświadczenia i wiedzy ludzi, których pracę zastępują. Decyzje algorytmów w niektórych przypadkach mogą być mniej, lub bardziej korzystne dla pewnych grup, lub poszczególnych osób. Jako przykład można podać wycofanie się przez korporację Amazon z wykorzystywania algorytmu służącego do rekrutacji pracowników. Powodem było dyskryminowanie przez program niektórych grup ludzi. Podobna sytuacja miała miejsce z systemem rekrutacyjnym jednej z brytyjskich uczelni, który dyskryminował studentów z Indii i Pakistanu. Z kolei amerykański algorytm służący do przewidywania prawdopodobieństwa powrotu do przestępstwa dyskryminował osoby czarnoskóre255. Podobnych przykładów złego działania algorytmów jest wiele, nie doprowadziło to jednak do zmiany obserwowanej współcześnie sytuacji, w której brakuje jakiejkolwiek kontroli społecznej nad tworzeniem i używaniem podobnych programów256. Do analogicznego wniosku doszli autorzy raportu, dotyczącego wykorzystania algorytmów przez instytucje rządowe w kilku krajach europejskich. Choć zauważają oni pozytywne aspekty działań różnych programów, to raport ostrzega przed zupełnym brakiem regulacji prawnych w tej dziedzinie257. 255 M. Mamak-Zdanecka, M. Stojkow, D. Żuchowska-Skiba, Społeczny… op. cit. s. 12. 256 G. Lewicki, Ludzkość we władzy algorytmów. Czy da się poprawić Internet?, „Rzeczpospolita”, [dostępny online:] https://cyfrowa.rp.pl/opinie/41252-przejac-panowanie-nad-algorytmami [dostęp: 12.12.19r.]. 257 M. Skop, M. Merenyi, T. Turashvili, K. Izdebski, D. Kerekes, V. Ilić, alGOVrithms. State of play, Wyd. Fundacja ePaństwo, 2019, s. 18-22. 258 E. Pariser, Beware online “filter bubbles”, [dostępny online:] http://www.ted.com/talks/eli_pariser_ beware_online_filter_bubbles [dostęp: 28.11.2019]. Analizując powyższe spostrzeżenia na gruncie nauk o mediach i badań nad dyfuzją treści zachodzącą przy wykorzystaniu algorytmów można wyszczególnić pięć podstawowych grup problemów. 1. Brak kontroli nad twórcami algorytmów, brak wiedzy na temat ich motywacji oraz ewentualnych środków nacisku podejmowanych przez wydawców, lub władze firm w celu wpłynięcia na ostateczny kształt programu. 2. Brak powszechnej wiedzy na temat działania i sposobu podejmowania decyzji przez algorytm, co może prowadzić do powstawania na portalach tzw. „baniek informacyjnych”258. 3. Brak informacji na temat wpływu człowieka oraz wydawców na działanie algorytmów, które może ograniczyć odbiorcom portalu dostęp do poszczególnych kategorii tematycznych, a w konsekwencji wpłynąć na rzetelność i różnorodność prezentowanych treści. 4. Brak możliwości wpływu na działanie algorytmu, co prowadzi do ograniczenia wolności wyboru odbiorcy. Podejmowanie przez algorytm decyzji na podstawie wcześniejszego zachowania użytkowników, bez możliwości ograniczenia lub wyłączenia tej funkcji przez odbiorcę, nie daje mu możliwości kontrolowania ewentualnych filtrów, nakładanych przez algorytm. 5. Brak możliwości wpływu wydawców portali na działania algorytmów, co w skrajnych przypadkach może prowadzić do pomijania najistotniejszych, z perspektywy doświadczenia wydawniczego, treści na rzecz informacji o mniejszym znaczeniu. 6. Brak skutecznych przepisów prawnych regulujących działanie algorytmów we współczesnym świecie. Analizując szczególną rolę algorytmu z perspektywy mediów internetowych, w tym portali horyzontalnych, autorzy zakładają, że już niedługo programy same wyprodukują treść (artykuł, galerię, materiał wideo), która będzie bezpośrednio dostarczana do spersonalizowanych odbiorców. Przeprowadzone na potrzeby dysertacji wywiady, potwierdzają prace nad podobnymi rozwiązaniami w polskich portalach. Dzięki algorytmom analizującym big data, dostawcy treści mogą zidentyfikować i dobrać odpowiedni rodzaj produktu do indywidualnego zapotrzebowania odbiorcy259. Lev Manovich zauważa, że dzięki reprezentacji numerycznej, oznaczającej zapisywanie wszystkich informacji znajdujących się w sieci w formie binarnej oraz automatyzacji rozumianej jako dobieranie treści przez komputery możliwa staje się „wariacyjność” mediów. Autor stwierdza, że obiekt nowych mediów istnieje najczęściej w wielu różnych wersjach, a nie powtarzalnych kopiach, a automatycznym składaniem stron zajmuje się komputer260. 259 T. Butts: Media 4.0: Using AI To Meet Viewers’ Preferences, [dostępny online:] https://www.tvtechnology.com/equipment/media-4-0-using-ai-to-meet-viewers-preferences [dostęp 5.11.19r.]. 260 L. Manovich, Język nowych mediów, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2006, s.103. 261 J. Kreft, Władza…, op. cit. s. 13. Wykorzystanie algorytmów i big data do budowania nowych rodzajów dyfuzji treści sprawia, że zmienia się cały paradygmat dotyczący roli wydawców w mediach. Do tej pory pełnili oni głównie funkcję „gatekeeperów”, selekcjonując informacje, które docierały do odbiorców. Algorytm w tym ujęciu będzie składnikiem ekosystemu medialnego, który zastępuje lub uzupełnia działania dokonywane przez „niedoskonałych” ludzi261. W dyskursie naukowym zwraca się w tym kontekście uwagę na zjawisko gatekeepingu technologicznego, w którym główną rolę odgrywają algorytmy262. Jak pisze Magdalena Szpunar „algorytmiczny gatekeeping dokonuje za nas wyborów, kształtuje nasz smak i preferencje”263. Warto również zauważyć, że rolę selekcjonerów przejmują bezpośrednio sami prosumenci (gatekeeping publiczności), dyfundujący treści na swoich profilach, głównie w mediach społecznościowych. 262 M. Szpunar, Od gatekeepingu tradycyjnego do technologicznego, tejże Imperializm kulturowy Internetu, Wyd. IDMiKS Uniwersytet Jagielloński, Kraków 2017, s. 22. 263 M. Szpunar, Kultura…, op. cit. s. 24. 264 Inaczej oficjalnych profilach różnorodnych organizacji na Facebooku. 265 M. Pałasz, Algorytm Edge Rank serwisu Facebook: narodziny, rozwój i działanie w ujęciu teorii aktora-sieci, „Humanizacja pracy. Technologiczno-społeczny wymiar sztucznej inteligencji. Władza algorytmów?”, nr 3(297), 2019 s. 71. 266 J. Lackorzyński: Klikająca demokracja. Dokąd pchają nas algorytmy?, [dostępny online:] https://klubjagiellonski.pl/2017/06/19/klikajaca-demokracja-dokad-pchaja-nas-algorytmy/ [dostęp: 15.11.19r.] 267 The Cambridge Analytica Files, „The Guardian” [dostępny online:] https://www.theguardian .com /news/series/cambridge-analytica-files [dostęp: 19.12.19r.]. Dokonując analizy fenomenu wykorzystywania algorytmów w mediach, warto opisać działanie niektórych znanych współcześnie i budzących spore kontrowersje progrmów. Jednym z nich jest EdgeRank – algorytm decydujący o tym, które aktualności pojawią się na profilu użytkownika strony Facebook. Początkowo wszystkie posty obserwowanych stron i osób trafiały bezpośrednio na profil użytkownika. Jednak wraz z rozwojem portalu społecznościowego oraz wzrastającą liczbą postów, zdecydowano o wprowadzeniu algorytmu, który ogranicza zasięg danego wpisu w oparciu o takie kryteria jak aktualność i intensywność interakcji (liczba polubień, komentarzy i udostępnień). Wprowadzenie algorytmu miało za zadanie poprawić jakość treści publikowanych na fanpage’ach264 poszczególnych organizacji. Algorytm przyczynił się także do zwiększenia liczby płatnych, „promowanych postów” (reklam). Michał Pałasz opisując działanie algorytmu EdgeRank zwraca uwagę na fakt, że sprzyja on tworzeniu się baniek informacyjnych wzmacniając przekaz skierowany do użytkowników o skonkretyzowanych zainteresowaniach i poglądach oraz utrudniając weryfikację informacji, co sprzyja dyfuzji fałszywych treści w sieciach społecznościowych265. Problem baniek informacyjnych wynika głównie z powodu zablokowania przez algorytmy przekazów niezgodnych z wcześniejszymi wyborami użytkowników266. Algorytmy w mediach mogą zatem utwierdzać odbiorców w przyjętych przez nich poglądach, co może stanowić zagrożenie dla wolności i demokracji, jak w przypadku afery wokół firmy Cambridge Analytica267. Organizacja ta uzyskała nieuprawniony dostęp do danych kilkudziesięciu milionów użytkowników Facebooka, które zostały potem wykorzystane do profilowania odbiorców reklam politycznych, m.in. przed wyborami prezydenckimi w USA oraz przed referendum dotyczącym wyjścia Wielkiej Brytanii z Unii Europejskiej. Znamienną rolę algorytmu EdgeRank, uwypukla jego wpływ na system społeczno-ekonomiczny panujący na świecie. Liczne organizacje w celu lepszej promocji na Facebooku, zaczęły zatrudniać specjalistów z zakresu mediów społecznościowych. Fakt ten wynika wprost z działań algorytmów. Wytworzył się także nowy rynek reklamy, który uwzględnia promowanie postów w mediach społecznościowych z pominięciem decyzji algorytmu. W ciągu lat Facebook wprowadził liczne modyfikacje programu, uwzględniające coraz większy zakres big data, przetwarzanych przez zespół różnych algorytmów, w skrócie określanych mianem „Rankingu”. Wśród nich znajdowały się dane takie jak zainteresowanie odbiorcy, sam wpis i jego typ, twórca czy aktualność. Mimo ciągłych udoskonaleń nie udało się uniknąć licznych zarzutów wobec działania algorytmów Facebooka. Zaliczyć do nich można tworzenie się baniek informacyjnych, spam (rozumiany jako otrzymywanie licznych, nieciekawych, wysyłanych często automatycznie treści), spadające zasięgi postów, dyfuzja nieprawdziwych informacji268. W tej sytuacji właściciele Facebooka zdecydowali się na ograniczenie zasięgów stron tworzonych przez instytucje i organizacje, na korzyść zwiększenia zasięgu treści publikowanych przez profile osobiste. Decyzja zapadła stosunkowo niedawno, bo w połowie 2019 roku i jak na razie trudno określić jej ewentualny wpływ na dyfuzję treści stosowaną przez portale w mediach społecznościowych. 268 M. Pałasz, Algorytm… op. cit. s. 79. Inny ważny w perspektywie rozwoju Internetu algorytm to PageRank, który był wykorzystywany przez Google jako jeden z najważniejszych elementów indeksowania stron internetowych prezentowanych w wyszukiwarce. Szczegóły aktualnego algorytmu nigdy nie zostały upublicznione, wiadomo jednak że jego pierwsza wersja opierała się na założeniu, że jakość tekstu jest proporcjonalna do liczby tekstów odwołujących się do niego. Było to zatem założenie podobne do istniejącego paradygmatu badań, funkcjonującego we wszystkich dziedzinach nauki, dotyczącego cytowania prac innych naukowców. Wraz z kolejnymi odsłonami i dodawaniem nowych wersji algorytmów, firma Google w 2009 roku wdrożyła personalizację wyników wyszukiwania. W efekcie prosumenci poszukując treści w Internecie, otrzymają różne wyniki wyszukiwania, oparte na zgromadzonych wcześniej danych przetworzonych przez program269. W 2016 roku zaprzestano udostępniania danych gromadzonych za pomocą algorytmu Google. Aktualnie trwa dyskusja, czy PageRank jest wykorzystywany w celu pozycjonowania stron przez największą wyszukiwarkę internetową świata270. Pewne jest, że współcześnie to inne algorytmy mają dużo większe znaczenie dla pozycjonowania, niż historyczny już PageRank, który dał podwaliny istnienia wyszukiwarek, jakie znamy dzisiaj271. 269 M. Szpunar, Koncepcja bańki filtrującej a hipernarcyzm nowych mediów, „Zeszyty prasoznawcze”, T. 61, nr 2(234), 2018, s. 193. 270 W. Souma, M. Jibu: Progress of Studies od Citations and PageRank, M. Jibu, Y. Osabe „Scientometrics”, Wyd. IntechOpen 2018, s. 214. 271 Co to jest wskaźnik PageRank i czy nadal ma wpływ na pozycjonowanie domeny? [dostępny online:] https://www.artefakt.pl/blog/seo/co-jest-wskaznik-pagerank-i-jaki-ma-wplyw-na-pozycjonowanie-do meny [dostęp: 12.12.19r.]. 272 M. Mamak-Zdanecka i in., Społeczny…, op. cit. s. 10. 273 J. Kreft, Władza…, op. cit. s. 12. 274 M. Mamak-Zdanecka i in., Społeczny…, op. cit. s. 13. Postępująca algorytmizacja w niemal wszystkich dziedzinach życia, akceleruje środowisko naukowe do poszukiwania nowych sposobów interdyscyplinarnych badań nad zjawiskiem, uwzględniając powiązania polityczne, ekonomiczne i społeczne272. Jak zauważa Jan Kreft współcześnie algorytmy „mapują nasze preferencje, sugerują nowe lub zapomniane elementy kultury, zarządzają sieciami społecznymi, ułatwiają dostęp do poszczególnych osób, utrudniają do innych. Oceniają, co jest ważne, co cieszy się największym zainteresowaniem i jest najmocniej dyskutowane, a co mało istotne. Zapewniają dostęp do informacji i wiedzy na temat tego, co można, a czego nie można poznać w cyberprzestrzeni”273. Autor zwraca uwagę, że algorytmy porządkują media, szczególnie w obliczu ciągłego nadmiaru informacji. W tym ujęciu rolą algorytmu może być dostosowanie wyświetlanej zawartości strony internetowej do potrzeb odbiorcy, czyli personalizacja. W założeniu pozwala ona na zaoszczędzenie czasu przez prosumentów, którzy nie muszą samodzielnie wyszukiwać pożądanych przez siebie informacji o określonej tematyce274, otrzymując je w sposób zautomatyzowany, w oparciu o wcześniejsze wybory. Opracowując metodologię badań założyłem, że takie rozwiązania są stosowane przez polskie portale horyzontalne. Aby zweryfikować powyższą tezę przeprowadziłem kilkadziesiąt rozmów z pracownikami Onetu, Wirtualnej Polski i Interii oraz badania własne nad stronami głównymi portali. Jak wykazałem we wcześniejszych częściach dysertacji, strony główne portali pozostają najpopularniejszym kanałem dyfuzji wykorzystywanym przez Onet, Wirtualną Polskę oraz Interię. Z kolei z przedstawionego opisu stron głównych wynika, że posiadają one możliwą do ścisłego określenia liczbę aktywnych linków, które prowadzą użytkownika do pożądanej treści. Implikuje to swoistą hermetyczność stron www, które można jedynie technicznie „wydłużać”, czy zmieniać ich układ (podobnie jak można zwiększyć liczbę stron wydrukowanych w gazecie). Z perspektywy użytkownika takie „wydłużanie” strony mogło być niepraktyczne, ponieważ zakłada, że będzie on musiał coraz dłużej „przewijać” witrynę internetową w przeglądarce, aby otrzymać informacje, znajdujące się w położonych niżej sekcjach tematycznych. W toku analizy słuszne wydaje się zatem porównanie historycznych i aktualnych danych, na temat liczby linków znajdujących się na stronach głównych portali. W tym celu wykorzystałem program WebArchive275, będący bazą wiedzy zawierającą ponad 400 miliardów archiwalnych zrzutów stron internetowych z całego świata. Na jej serwerach przechowywanych jest ponad 100 tys. zapisanych wersji stron głównych Wirtualnej Polski, ponad 75 tys. zapisanych wersji stron głównych Onetu oraz ponad 165 tys. zapisanych wersji stron głównych Interii. Pierwsze z nich zostały wykonane w 1997 roku. Na podstawie dostępnych danych obliczyłem ręcznie liczbę aktywnych linków znajdujących się na portalach w grudniu 2009, 2014 oraz 2019 roku. Wyniki analizy zawiera Tabela 13. 275 WebArchive, Waybackmachine już dziś stanowi doskonałe źródło do historycznych badań nad zmieniającymi się wersjami stron internetowych. Więcej na stronie: https://web.archive.org/ Tabela 13. Liczba aktywnych linków na portalach Onet, WP i Interia w grudniu 2009, grudniu 2014 oraz grudniu 2019 roku. Liczba aktywnych linków na stronach głównych 9.12.2009 9.12.2014 9.12.2019 Onet 172 227 263 WP 168 192 245 Interia 189 217 248 Źródło: opracowanie własne na podstawie WebArchive. Z zaprezentowanych danych wynika, że w ciągu ostatnich 10 lat można zaobserwować znaczący wzrost aktywnych linków na wszystkich analizowanych portalach internetowych. Warto zauważyć, że w przypadku obliczeń z 2019 roku wykonanych dla Onetu i Wirtualnej Polski nie uwzględniono liczby linków, które pojawiły się w sekcjach „Najpopularniejsze dziś w Onecie” (ponad 120 linków) oraz „Zobacz więcej” w WP.pl (60 linków). Wynika to z faktu, że znajdują się one na samym końcu stron głównych portali i są wydawane automatycznie przez algorytm, który dobiera pojawiające się tam treści, powielając linki, które były prezentowane w wyższych częściach stron głównych. Wprowadzenie personalizacji treści rozwiązałoby wspomniany wcześniej problem hermetyczności portali horyzontalnych, wpisując się w założenia sieci semantycznej. Oparcie się na algorytmach w dyfuzji poprzez strony główne, implikuje otworzenie miejsca na zupełnie nowe treści dobierane w sposób spersonalizowany, co obniża znaczenie samej liczby aktywnych linków i niweluje problem „wydłużania” strony. Istnienie podobnych rozwiązań potwierdziły rozmowy z przeprowadzone z pracownikami portali Onet i Wirtualna Polska276. Wskazali oni, że wykorzystanie algorytmizacji umożliwiło „poszerzenie” oferty portalu skierowanej do odbiorców, poprzez testowanie dziesiątków wersji stron w różnym układzie i z różnym doborem treści, w zależności od zapisanych wcześniej preferencji użytkownika. Dzięki temu zamknięte wcześniej i wydawane ręcznie wersje stron z ograniczoną liczbą możliwych do wyświetlenia linków, stały się polem doświadczalnym dla algorytmów, personalizujących dobór treści. 276 Portal Interia w czasie przeprowadzania badań nie stosował podobnych rozwiązań, dlatego w dalszej części pracy analizuję jedynie Onet i Wirtualną Polskę. 277 M. Gajek, Algorytm nie pisze nam tekstów, „Newsweek”, [dostępny online:] https://www.news week.pl/onet-algorytm-nie-pisze-nam-tekstow-rozmowa/elbkjlz [dostęp: 22.11.19r.]. W rozmowach wskazywano również, że algorytmizacja wydawania rozwiązała problem nadprodukcji treści w Onecie i Wirtualnej Polsce. Dziennie pracownicy portali generują około 800 artykułów, galerii, materiałów wideo277, tymczasem na stronie głównej wyświetlić można jedynie około 250 linków. W tej sytuacji część treści nie miała wcześniej szansy na dyfuzję poprzez strony główne portali. Wprowadzenie personalizacji otworzyło taką możliwość, dając algorytmom dostęp do wszystkich publikowanych zasobów, których pozycja i układ są testowane w różnych wersjach strony. W celu potwierdzenia powyższych ustaleń przeprowadzono eksperyment. O tej samej godzinie otworzono strony Onetu i Wirtualnej Polski w dwóch wariantach: przy wykorzystaniu standardowych ustawień przeglądarki internetowej oraz przy wykorzystaniu ustawienia „tryb incognito”, który blokuje wykorzystanie zapisanych wcześniej plików cookies, a co za tym idzie uniemożliwia dokonanie personalizacji treści w oparciu o zapisane wcześniej dane. Zrzuty ekranu dla portalu Onet przedstawiają ilustracje zamieszczone na kolejnej stronie pracy. Ilustracja 11. Zrzut ekranu z częścią portalu Onet przy zastosowaniu standardowych ustawień przeglądarki (lewa strona) oraz przy wyłączonej możliwości korzystania z plików cookie (prawa strona). Źródło: Onet.pl. Ilustracja 12. Zrzut ekranu z częścią portalu WP przy zastosowaniu standardowych ustawień przeglądarki (lewa strona) oraz przy wyłączonej możliwości korzystania z plików cookie (prawa strona). Źródło: wp.pl. Jak wynika z analizy powyższych zrzutów ekranu, strony Onet i WP.pl zapisane w tym samym momencie różnią się od siebie. Porównanie zamieszczonych powyżej zrzutów ekranu wykazało, że w przypadku portalu Onet można doliczyć się osiemnastu zmian w pozycji lub treści linków (na 32 aktywne, nie reklamowe linki). W przypadku Wirtualnej Polski podobnych zmian można zaobserwować dziesięć (na 32 aktywne, nie reklamowe linki). Eksperyment powtórzono siedmiokrotnie w różnych dniach dla tych samych części stron głównych. Zbiorcze wyniki zaprezentowano w Tabeli 14. Tabela 14. Różnice w pozycji i doborze prezentowanych treści na stronach głównych portali Onet i Wirtualna Polska w dniach 2-8.12.19r. Dzień Onet Wirtualna Polska Liczba linków, które nie zmieniły położenia na stronie Liczba nowych linków, lub takich, które zmieniły położenie na stronie Liczba linków, które nie zmieniły położenia na stronie Liczba nowych linków, lub takich, które zmieniły położenie na stronie 2.12 14 18 22 10 3.12 11 21 20 12 4.12 13 19 21 11 5.12 14 18 20 12 6.12 15 17 21 11 7.12 13 19 18 14 8.12 12 20 20 12 SUMA 92 132 142 82 Źródło: opracowanie własne. Jak wynika z zebranych danych więcej spersonalizowanych treści generuje algorytm opracowany przez Onet. Należy jednak zauważyć, że oba analizowane portale wciąż pracują nad ulepszeniem technologii, a co za tym idzie ponowne przeprowadzenie badań w innym terminie może dać odmienne wyniki. Celem eksperymentu nie była analiza technicznej sprawności algorytmów, a potwierdzenie faktu ich wykorzystywania na stronach głównych portali, co udało się wykazać. Można zatem z całą pewnością powiedzieć, że portale Onet i Wirtualna Polska wykorzystują algorytmy testujące różne wersje stron na różnych użytkownikach. Nie jest znany sposób, w jaki algorytmy dobierają treści. Można z dużym prawdopodobieństwem założyć, że personalizacja działa w oparciu o wcześniejsze wybory użytkowników zapisane w plikach cookie, wybory dokonywane przez innych użytkowników w podobnym czasie, o zbliżonym wieku, tej samej płci . Mechanizmy te znane są m.in. z reklam AdSense, które umożliwiają ich spersonalizowany dobór w oparciu o dane dotyczące wcześniejszych słów wpisywanych w wyszukiwarkach278. 278 Pomoc Google, Jak działa AdSense, [dostępny online:] https://support.google.com/adsense /answer/6242051?hl=pl [dostęp: 12.12.19r.]. W przypadku portali użytkownicy wyszukujący, lub czytający określone treści otrzymywaliby ich więcej na stronach głównych. Tezę powyższą potwierdzają wywiady eksperckie z pracownikami Onetu i Wirtualnej Polski, którzy przyznali że podobne rozwiązania zostały już wprowadzone i wciąż trwają prace nad ich udoskonaleniem. Potwierdzają ją także same portale informując na swoich stronach o polityce prywatności i wykorzystaniu plików cookie. Jak czytamy w oficjalnych dokumentach Onetu dostępnych online, portal wykorzystuje pliki cookie m.in. w celu „zapewnienia bezpieczeństwa usługi (np. sprawdzenie, czy do Twojego konta nie loguje się nieuprawniona osoba), dokonanie pomiarów statystycznych, ulepszanie naszych usług i dopasowanie ich do potrzeb i wygody użytkowników (np. personalizowanie treści w usługach) jak również w celu prowadzenia marketingu bezpośredniego (także na zlecenie reklamodawców) lub promocji własnych usług (np. jeśli interesujesz się historią i oglądasz materiały historyczne w portalu Onet lub na innych stronach internetowych, to możemy Ci wyświetlić reklamę dotyczącą artykułu w serwisie Onet Podróże o historycznych trasach krajoznawczych). Takie przetwarzanie danych to realizacja naszych prawnie uzasadnionych interesów”279. 279 Polityka prywatności podmiotów z grupy Ringier Axel Springer Polska, [dostępny online:] https://polityka-prywatnosci.onet.pl/ [dostęp: 12.12.19r.]. Jak wykazałem wcześniej można zatem mówić o „poszerzeniu” stron głównych, które tracą swoją hermetyczność na rzecz spersonalizowanego doboru treści. Dzięki temu większa liczba informacji, budzących zainteresowanie użytkowników, może trafić do nich bezpośrednio, bez udziału pośredników-wydawców. Implikuje to konieczność zaprojektowania mechanizmów umożliwiających odpowiedni dobór treści w oparciu o dane. Jednym z możliwych sposobów rozwiązania problemu jest stworzenie swoistych „koszyków tematycznych” zawierających aktualną pulę informacji z konkretnej dziedziny. Algorytm znający wcześniejsze preferencje użytkownika portalu wyświetli mu więcej informacji z jego „koszyka” na stronie głównej. Innym możliwym mechanizmem jest oparcie personalizacji o dane na temat zainteresowania informacją przez innych użytkowników. Innymi słowy, im większa liczba użytkowników jest zainteresowana informacją (klika w nią, czyta ją), tym więcej osób będzie miało okazję zobaczyć treść na stronie głównej. Możliwe jest również zastosowanie obu tych rozwiązań jednocześnie. Aby potwierdzić powyższe hipotezy przeprowadzono kolejny eksperyment. Zakładał on, że przy wykorzystaniu dostępnych narzędzi do zmieniania adresów IP (poprzez zmianę ustawień karty sieciowej komputera), otrzymanych zostanie kilkanaście wersji stron głównych portali Onet oraz Wirtualna Polska. W tym celu wygenerowano dziesięć różnych, nowych adresów IP i przy ich użyciu wykonano zrzuty ekranu stron głównych Onetu oraz WP.pl w celu przeanalizowania ich zawartości. Niestety założenia eksperymentu okazały się błędne, gdyż przy zmienionych adresach IP wyświetlała się podstawowa wersja strony, dostępna także przy użyciu trybu incognito. Oznacza to, że algorytmy pokazują jedną wersję strony dla użytkowników, którzy odwiedzają je po raz pierwszy. Dopiero regularne odwiedzanie strony oraz oparcie się na plikach cookie pozwala algorytmom dobierać treść w bardziej spersonalizowany sposób. Wykorzystując powyższe informacje, przeprowadzono kolejny eksperyment z udziałem trzech osób280 regularnie korzystających z portali internetowych. Mężczyzna (29 lat) deklarował zainteresowanie tematami politycznymi, kobieta (31 lat) deklarowała zainteresowanie tematami kulturalnymi i lifestylowymi, mężczyzna (32 lata) deklarował zainteresowanie tematami sportowymi. W ciągu jednego dnia (10.08.19r.) osoby te miały za zadanie odwiedzić portale Onet i WP.pl o tej samej godzinie oraz wykonać dwa zrzuty ekranu: w trybie incognito oraz w trybie standardowego korzystania z przeglądarki. Dzięki temu uzyskano niezależne zrzuty ekranu z trzech różnych adresów IP oraz przeprowadzono ich analizę porównawczą wyróżniając trzy obszary tematyczne. W każdym ze zrzutów ekranu analizowano 32 aktywne, nie reklamowe linki oraz przypisywano im charakterystykę tematyczną: sport, kultura, polityka oraz inne w oparciu o serwis, z którego pochodziła informacja. Sprawdzono również jak wiele linków pokrywa się ze sobą w każdym z badanych przypadków. Wyniki eksperymentu przedstawiono w Tabeli 15. 280 Fakt przeprowadzenia eksperymentu z udziałem jedynie trzech osób może budzić zastrzeżenia metodologiczne, do których chciałbym się od razu odnieść. Celem opisywanego badania nie była porównawcza analiza metodyki stosowanej przez algorytm przy personalizowaniu treści, a jedynie wykazanie, że personalizacja taka ma miejsce. W badaniach nad dyfuzją treści w sieci samo potwierdzenie (lub nie) tego faktu stanowi kluczowe zagadnienie, które rozwijam również w oparciu o wywiady z przedstawicielami portali. Pogłębione badania nad efektami działania algorytmów służących personalizacji, nie wchodzą zatem w zakres mojej dysertacji. Dodatkowo rozmowy z pracownikami portali wykazały, że stosowane technologie są nowe i cały czas udoskonalane, przez co badania w tym zakresie mogłyby się szybko zdezaktualizować. Osoba 1. zainteresowana Osoba 2. zainteresowana Osoba 3. zainteresowana Onet WP Onet WP Onet WP Tryb incognito Tryb jawny Tryb incognito Tryb jawny Tryb incognito Tryb jawny Tryb incognito Tryb jawny Tryb incognito Tryb jawny Tryb incognito Tryb jawny Polityka 14 15 16 17 14 9 16 14 14 14 16 14 Kultura 2 2 4 2 2 6 4 5 2 1 4 3 Sport 1 2 3 3 1 1 3 2 1 4 3 4 Inne 15 13 9 10 15 16 9 11 15 13 9 11 Linki na różnych pozycjach 18 12 20 11 19 11 Linki pokrywające się ze sobą 14 20 12 21 13 21 Tabela 15. Zestawienie wyników eksperymentu porównującego zawartość stron głównych portali Onet i WP w trybie incognito oraz trybie standardowej pracy. Źródło: opracowanie własne. Pierwszym wnioskiem po przeprowadzeni eksperymentu jest fakt, że w trybie incognito (uniemożliwiającym wykorzystanie przez algorytmy plików cookie) wszystkie zrzuty ekranów wykonane przez osoby biorące udział w eksperymencie były identyczne. Potwierdza to wcześniejsze ustalenia, zgodnie z którymi użytkownik odwiedzający daną stronę internetową po raz pierwszy otrzymuje jej „standardową” wersję wyświetlaną wszystkim i zawierającą niespersonalizowane treści. Eksperyment pokazał również, że trafna jest teza dotycząca personalizacji treści na portalach horyzontalnych. Osoby deklarujące zainteresowanie daną tematyką w trybie jawnym otrzymały więcej treści, związanych ze swoimi zainteresowaniami. Trzeba odnotować, że tych treści nie było znacząco więcej. W przypadku osoby zainteresowanej polityką różnica między trybem incognito, a zwykłym korzystaniem z przeglądarki zarówno w Onecie jak i Wirtualnej Polsce wynosiła zaledwie jeden artykuł na korzyść tematów politycznych. Może to wynikać z faktu, że górne części portali horyzontalnych, z których pochodziły zrzuty ekranu, są zwyczajowo zdominowane przez tematykę polityczną. Udział takich informacji stanowi nieomal połowę wszystkich treści wyświetlanych w górnych częściach stron Onetu i WP.pl. Głębszą personalizację wydawania treści pokazują przykłady osób zainteresowanych sportem i kulturą. Algorytm wykorzystywany przez Onet wyświetlił odpowiednio o 3 artykuły sportowe i o 4 artykuły dot. kultury więcej osobom deklarującym zainteresowanie tymi tematami. W przypadku Wirtualnej Polski osoby te otrzymały o jeden artykuł więcej z obszaru swoich zainteresowań. Eksperyment potwierdził również, że stosowane przez portale algorytmy, często zmieniają pozycję linków na stronach głównych. Podczas ich porównywania okazało się, że zarówno w Onecie jak i w Wirtualnej Polsce znaczna część z 32 linków rotuje na stronie głównej, zmieniając swoją pozycję w zależności od tego, czy użytkownik pozostaje w trybie incognito, czy też nie. Można stąd wysnuć wniosek, że algorytmy testują różne warianty ułożenia strony i linków. Potwierdzają to także przeprowadzone wywiady. Wśród przyczyn wykorzystania algorytmów w portalach horyzontalnych wymienić można wzrost dostępności urządzeń mobilnych. Jak wskazywałem wcześniej konsumpcja treści przez użytkowników tabletów i smartfonów wygląda inaczej, niż w przypadku komputerów stacjonarnych. Strony zaprojektowane na duże monitory strony internetowe nie sprawdzały się na małych ekranach urządzeń mobilnych. Wydawcy zdecydowali się zatem na przeprojektowanie stron i stworzenie wersji specjalnie dostosowanych do urządzeń mobilnych. Konsekwencją tej zmiany było ograniczenie liczby możliwych do wyświetlenia treści, a co za tym idzie spadek różnorodności tematycznej oferowanej przez portale wydawane ręcznie przez ludzi. Rozwiązaniem tego problemu mogą być algorytmy, dostosowujące treści do użytkowników. Warto w tym miejscu wspomnieć, że na potrzeby pracy przeprowadzono wywiady eksperckie z osobami zajmującymi się m.in. wprowadzaniem personalizacji i automatyzacji wydawania treści w portalach horyzontalnych w Polsce. Wszystkie osoby zastrzegły sobie anonimowość oraz niechętnie dzieliły się informacjami dotyczącymi prac nad algorytmami personalizującymi i automatyzującymi wydawanie treści. Podczas rozmów wiele razy zasłaniały się tajemnicą i dobrem firmy. Postawa taka rodzi pytania o etyczność wprowadzanych zmian oraz obawy przed ujawnieniem sposobu działania algorytmów, których finalnym zadaniem jest ułatwienie użytkownikowi odbioru interesujących go zasobów. Niechęć do ujawniania nawet teoretycznych założeń przyświecających tworzeniu algorytmów, może wynikać z dwóch powodów: lęku przed ujawnieniem tajemnic firmy (lojalność wobec pracodawcy) lub lęku przed ujawnieniem informacji, które mogłyby zostać źle odebrane przez użytkowników portali, co w konsekwencji mogłoby się przyczynić do spadku zaufania i realnie zmniejszyć dochody firmy. Przeprowadzone nad portalami badania potwierdziły, że w 2019 roku Onet oraz Wirtualna Polska wykorzystywały algorytmy personalizujące i automatyzujące wydawanie treści. Interia nie posiada jeszcze takich rozwiązań, ale trwają prace nad ich wprowadzeniem281. Algorytmizacja i personalizacja opiera się przede wszystkim na dokonywanych wcześniej przez użytkowników wyborach zapisywanych dzięki plikom cookie. Jak wynika z badań algorytmy wykorzystywane przez polskie portale wykorzystują segmentację w oparciu o zainteresowania użytkowników. Jak się wydaje potrzebne są dalsze badania, które będą mogły wykazać jak wiele segmentów personalizacji stworzono oraz jak bardzo automatyzacja wpływa na treści prezentowanie użytkownikom. Osobne badania powinny też zostać poświęcone przeanalizowaniu automatyzacji i personalizacji dokonywanej na potrzeby użytkowników urządzeń mobilnych. 281 Wywiad Powyższe ustalenia potwierdzają hipotezę zawartą we wstępie do pracy, która zakładała, że zmiany technologiczne, w tym przypadku wykorzystanie algorytmów, doprowadziło do wytworzenia nowego kanału dyfuzji treści, który polegał na rozszerzeniu hermetycznych wersji stron głównych do wersji spersonalizowanych, zmieniających się w zależności od potrzeb użytkowników. W powyższym świetle zasadne wydaje się też stwierdzenie, że algorytmizacja jest innowacyjnym kanałem dyfuzji treści w polskich portalach internetowych, stosowanym dzięki nowym strategiom użytkowania sieci i wykorzystywania jej zasobów, w tym informacji o zainteresowaniach użytkowników gromadzonych dzięki plikom cookie. ROZDZIAŁ III. WYSZUKIWARKI I MEDIA SPOŁECZNOŚCIOWE W PROCESIE DYFUZJI Powinniśmy budować rzeczy, które jeszcze nie istnieją Larry Page, założyciel Google Pytaniem nie jest „co chcemy wiedzieć o ludziach”, a raczej „co ludzie chcą powiedzieć o sobie?” Mark Zuckerberg, założyciel Facebooka Trzeci rozdział pracy poświęcam dwóm kolejnym, największym kanałom dyfuzji treści w sieci, jakimi są wyszukiwarki internetowe i media społecznościowe. Wywód rozpoczynam od zarysowania fenomenu wyszukiwarek, w szczególności Google. Dalsza analiza konkretyzuje trendy w wyszukiwanych oraz „Wiadomości Google”, jako nowe narzędzia i nowe kanały służące dyfuzji treści w sieci. W toku pracy opisuję również konkretne działania podejmowane przez redakcje, mające na celu zwiększenie zasięgu dyfuzji poprzez wyszukiwarki. W dalszej części rozdziału analizuję dyfuzję treści zachodzącą w mediach społecznościowych. Dzięki wykorzystaniu wielkich zbiorów danych możliwe staje się porównanie zaangażowania użytkowników w publikowane zasoby. Zakładane przeze mnie badania nad profilami stworzonymi przez Onet, Wirtualną Polskę i Interię na Facebooku, mogą wskazywać na wagę tego kanału dyfuzji w odniesieniu do portali. Przeprowadzone analizy porównawcze profili, mają na celu sprawdzenie hipotezy zakładającej, że profile portali w mediach społecznościowych z czasem zyskują coraz większy zasięg wśród użytkowników. Przyjęta metodologia pracy, dopuszcza możliwość wykorzystania algorytmów do analizy big data w badaniach nad procesami dyfuzji. W toku rozprawy posługuję się zatem programami Google Trends oraz FanpageKarma, które wcześniej charakteryzuję. 3.1. Fenomen wyszukiwarek Wyszukiwarki internetowe są jednym z głównych źródeł informacji dla użytkowników sieci. Według badań Gemius PBI ze stron i aplikacji Google korzysta 26,6 miliona polskich internautów. Stanowi to niemal 95% wszystkich korzystających z Internetu w Polsce. Trend w 2019 roku nie uległ zmianom. Polacy w ciągu miesiąca generują około 8 miliardów odsłon na samych stronach największej z wyszukiwarek. Google stał się ogromną bazą danych oraz źródłem wiedzy na temat tego, co w danym okresie jest dla użytkowników najbardziej interesujące282. 282 A. Turner, M.W. Zieliński, K.M. Słomczyński: Google Big Data: charakterystyka i zastosowanie w naukach społecznych, „Studia Socjologiczne” nr 4(231), 2018 r. s. 50. 283 WirtualneMedia, Internetowe wyszukiwarki najbardziej zaufanym źródłem medialnym na świecie [dostępny online:] https://www.wirtualnemedia.pl/artykul/internetowe-wyszukiwarki-najbardziej-zaufanym-zrodlem-medialnym-na-swiecie [dostęp 12.12.19r.]. 284 2019 Edelman Trust Barometer. Global Report, [dostępny online:] https://www.edelman.com/sites/ g/files/aatuss191/files/201902/2019_Edelman_Trust_Barometer_Global_Report.pdf, [dostęp: 12.12.19r.]. Nie bez znaczenia pozostaje fakt, że zgodnie z badaniami Polacy ufają wynikom, które generowane są przez algorytmy wyszukiwarek. Według statystyk 64% naszych rodaków uważa wyszukiwarki za rzetelne źródło informacji283. Fenomen ten utrzymuje się na podobnym poziomie od lat. Coroczne sprawozdania dotyczące poziomu zaufania ludzi do polityków, instytucji życia publicznego i mediów publikowane są w prestiżowym raporcie „Edelman Trust Barometer”. W badaniach z 2019 roku wyszukiwarki pobiły historyczny rekord, ciesząc się największym zaufaniem wśród ludzi na świecie284. Według raportu Edelmana, wyniki wyszukiwania są uznawane za wiarygodne źródło informacji przez 66% mieszkańców naszego globu, tradycyjnym mediom ufa 64% populacji, zaś mediom społecznościowym ufa 44% osób. Nieco inaczej sytuacja przedstawia się w Europie, co zaprezentowano na Wykresie 10. Wykres 10. Zaufanie do wyszukiwarek, tradycyjnych mediów i mediów społecznościowych w Europie w 2019 roku. 59 60 34 0 10 20 30 40 50 60 70 % poziom zaufania Wyniki wyszukiwania Media tradycyjne Media społecznościowe Źródło: 2019 Edelman Trust Barometer. Global Report. Jak wynika z powyższego wykresu w Europie tradycyjne media, do których zalicza się prasę, radio i telewizję, wciąż cieszą się największym zaufaniem społeczeństwa. Jednak ich przewaga nad wyszukiwarkami internetowymi wynosi zaledwie 1 punkt procentowy, co sprawia że wyniki mieszczą się w granicach błędu statystycznego. Poziom zaufania do wyszukiwarek i tradycyjnych mediów można uznać za porównywalny, co może oznaczać że wyszukiwarki powoli przejmują rolę tradycyjnych mediów i postrzegane są jako wiarygodne źródło informacji. Najmniejszym zaufaniem w Europie cieszą się media społecznościowe. W zawarte w nich informacje wierzy 34% badanych. Warto odnotować, że według innych badań przeprowadzonych w USA jedynie 38% internautów jest świadomych występowania w wyszukiwarkach linków sponsorowanych, a spośród tej grupy tylko 47% użytkowników potrafi rozróżnić link sponsorowany od wyszukiwania organicznego285. Te same badania wskazują, że zaufanie do wyszukiwarek jest większe wśród osób w wieku poniżej 30 lat286, co można tłumaczyć ogólną, większą liczbą młodych internautów. 285 Wyszukiwanie lub wyniki organiczne, to ta część wyszukiwania, która nie obejmuje wyników płatnych. 286 E. Hargittai, L. Fullerton, E. Menchen-Trevino, K. Yates Thomas, Trust Online: Young Adults’ Evaluation of Web Content, „International Journal of Communication nr 4, 2010, s. 472. Alexander Halavais zauważa jednak, że zaufanie do algorytmów odpowiedzialnych za udostępnianie użytkownikom wyników wyszukiwania bazuje na pewnej fikcji. Autor przekonuje, że algorytmy wyszukiwania nie mają zamiaru zwodzić nas ani intencjonalnie, ani nieintencjonalnie287. Ich działanie zależy przede wszystkim od decyzji firm i ludzi, którzy je nadzorują. Dyskusja na temat wiarygodności wyników podawanych przez wyszukiwarki, trwa w środowisku naukowym, politycznym i biznesowym od wielu lat. Badacze zwracają uwagę na fakt, że dostawcy podobnych usług posiadają zbyt duży wpływ na wyświetlane wyniki. Szczególnie krytykowana jest możliwość wykupienia wysokiego miejsca w wynikach wyszukiwania, co ma podważać wiarygodność stron takich jak Google288. 287 A. Halavais, Wyszukiwarki internetowe a społeczeństwo, Wydawnictwo Naukowe PWN, Warszawa 2012, s. 146. 288 J.V.J. van Hoboken, Search engine freedom: on the implications of the right to freedom of expression for the legal governance of Web search engines, Wyd. Uniwersytet w Amsterdamie, 2012, s. 284. 289 Wyniki analizy udziału wyszukiwarek w rynku na podstawie StatCounter [dostępny online:] https://gs.statcounter.com/search-engine-market-share/all/poland [dostęp: 7.11.19r.]. Ruch z wyszukiwarek stanowi spory udział w całości ruchu generowanego przez Onet, Wirtualną Polskę i Interię. Wyszukiwarki stanowią drugi pod względem liczby użytkowników sposób dyfuzji treści prze portale. Udział wyszukiwarek w całości ruchu portali waha się od ponad 16% do ponad 22%. Oznacza to miliony potencjalnych użytkowników, którzy w inny sposób mogliby nie trafić na treści generowane przez portale horyzontalne. Z powyższych względów dyfuzja poprzez wyszukiwarki jest ważna dla analizowanych stron internetowych. Jak wykazały rozmowy z osobami odpowiadającymi za rozwój portali, w strukturach firm znajdują się specjalne działy, których zadaniem jest tworzenie lub optymalizacja treści na potrzeby wyszukiwarek. Według serwisu StatCounter zajmującego się badaniem udziału wyszukiwarek w rynku Google jest monopolistą zarówno na świecie, jak i w Polsce. Udział wyszukiwarki Google w światowym rynku oscyluje w granicach 92-93%, na pozostałych miejscach znajdują się wyszukiwarki: Bing (2,55%), Yahoo! (1,61%), Baidu (0,9%), Yandex (0,5%), DuckDuckGo (0,4%). W świetle badań w Polsce dominacja Google jest jeszcze większa. Przez cały 2019 rok ponad 98% rynku wyszukiwarek w naszym kraju należało do Google289. Potwierdza to także procentowy udział ruchu generowanego przez różne wyszukiwarki na analizowanych portalach horyzontalnych, co zaprezentowano w Tabeli 16. Tabela 16. Procentowy udział ruchu generowanego przez różne wyszukiwarki w portalach Onet, WP i Interia w okresie od lipca do września 2019 roku. Google DuckDuckGo Yahoo Syndicated Bing Inne Onet 97,51% 0,92% 0,89% 0,26% 0,27% 0,15% Interia 98,07% 0,57% 0,41% 0,49% 0,43% 0,04% WP 98,03% 0,65% 0,57% 0,36% 0,31% 0,07% Źródło: opracowanie własne na podstawie SimilarWeb. Z powodu monopolistycznej pozycji Google, w dalszej analizie skupiłem się jedynie na tej jednej, konkretnej wyszukiwarce, z pominięciem innych produktów funkcjonujących w omawianym segmencie rynku. Pozostałe wyszukiwarki mają bowiem śladowy wpływ na dyfuzję treści w Polsce. Google to wyszukiwarka działająca na rynku od 1997 roku, obecnie w ramach spółki Alphabet. Powstała jako projekt dwóch doktorantów z Uniwersytetu Stanforda w USA. Najważniejszą usługą oferowaną przez Google jest wyszukiwarka, działająca m.in. w oparciu o specjalny algorytm, w skład którego wchodzi prawdopodobnie omawiany wcześniej PageRank. Misją wyszukiwarki jest „skatalogowanie światowych zasobów informacji i uczynienie ich powszechnie dostępnymi i użytecznymi”290. Poza wyszukiwarką Google oferuje szereg innych produktów i usług w tym: przeglądarkę internetową Google Chrome, pocztę elektroniczną Gmail, serwis z mapami Google Maps, dysk sieciowy Google Docs, Asystenta Google. Google udostępnia także serwisy reklamowe AdWords (wyświetlający w wynikach wyszukiwania linki sponsorowane) oraz AdSense (umożliwiający wstawianie kontekstowych reklam na stronach internetowych, które mają podpisane umowy z Google). 290 Misja Google [dostępny online:] https://www.google.com/corporate [dostęp 7.11.19r.]. 291 J. Batell, The Search: How Google and Its Rivals Re-wrote the Rules of Business and Transformed Our Culture, Nicholas Brealey Publishing, Londyn 2006. John Batelle wskazuje, że Google dostarcza bazy danych naszych intencji i stanowi repozytorium ciekawości, zainteresowań i pragnień ludzi na całym świecie291. Takie stwierdzenie wydaje się zasadne także dzięki możliwości monitorowania zachowania użytkowników z całego świata. W badaniach socjologicznych podnosi się, że dane pozyskane na podstawie wyników wyszukiwania są unikatowe, bowiem udostępniane są przez Google za darmo i mogą być analizowane i przetwarzane w łatwy sposób. Naukowcy zwracają również uwagę na fakt, że zebranie podobnych danych nie byłoby możliwe przy użyciu tradycyjnych metod badawczych znanych w naukach społecznych. Wynika to z faktu, że użytkownik sam wybiera interesujące go tematy, dzięki czemu unika się sytuacji, w której osoba ankietowana nie chce z różnych względów ujawnić swoich rzeczywistych poglądów292. 292 J. Mellon,, Where and When Can We Use Google Trends to Measure Issue Salience?, „Political Science and Politics” 46(2), 2013 s. 280–290. 293 A. Turner, M. Zieliński, K. Słomczyński, Google op. cit. s. 54. 294 A. Halavais, Wyszukiwarki… op. cit. s. 15. 295 M. Szpunar, Od gatekeepingu… op. cit. s. 28. Anna Turner, Marcin Zieliński i Kazimierz Słomczyński podkreślają, że „dane z wyszukiwarki Google są wyjątkowe ze względu na powtarzające się w czasie i przestrzeni obserwacje na milionach użytkowników w 179 krajach. Umożliwia to badanie bardzo dużych grup zdefiniowanych przez położenie geograficzne, a także przeprowadzenie analiz porównawczych zarówno w różnych okresach czasu, jak i na poziomie wewnątrzkrajowym, krajowym i międzynarodowym”293. Istnieją również naukowcy dostrzegający zagrożenia w zbytniej wierze w nieomylność wyszukiwarek. Algorytmizację rozumianą jako przedmiot wiary opisuje Alexander Halavais294. Z tej perspektywy wzrost zaufania do wyszukiwarek może być niebezpieczny, bowiem to algorytm przejmuje władzę nad dostępem do informacji. Podobne opinie wyrażali także inni badacze295. Dzięki gromadzeniu a następnie udostępnianiu danych przez właścicieli wyszukiwarek w badaniach nad Internetem pojawiła się nowa kategoria służąca opisowi rzeczywistości medialnej. Chodzi o temat trendujący, trend, który może być rozumiany jako kierunek, za którym podążają ludzie w określonym czasie. Uściślając, tematem trendującym w mediach internetowych będzie jedno słowo (wyrażenie), lub zbiór semantycznie powiązanych ze sobą słów (wyrażeń), które opisują pewien interesujący dla internautów temat, na przykład: „papież”, „pielgrzymka papieża”, „pielgrzymka papieża do Polski”. Można powiedzieć, że każdy zasób znajdujący się w Internecie może stać się trendem296, a co za tym idzie, może zostać wykorzystany do dalszej dyfuzji poprzez wyszukiwarki. Dzięki trendom mamy do czynienia ze swoistymi strumieniami wiadomości (z jęz. ang.: message stream). Można je rozumieć jako sekwencję kolejnych decyzji użytkowników, dotyczącą publikacji związanej z danym tematem. Warto zauważyć, że trendy są publicznie dostępne, a zatem decydując się na publikację treści dotyczącej określonego tematu, użytkownicy mieć świadomość, że ich wypowiedź może zostać skomentowana przez inne osoby i wzmocni istniejący trend. Trendy mogą również występować w grupach zamkniętych w mediach społecznościowych. Literatura przedmiotu zwraca uwagę na silny wpływ społeczny, jaki może być wywoływany przez trendy, określane nawet niekiedy „zachowaniem stadnym” użytkowników Internetu297. 296 M. Cataldi, L. Di Caro, C. Schifanella, Emerging… op.cit. s. 8-13. 297 B. Mróz, Konsument w sieci – wyzwania i zagrożenia, „Handel wewnętrzny” nr 4 (351), 2014 s. 207. 298 J. Leskovec, L. Backstrom,m. Kleinberg, Meme-tracking and the dynamics of the news cycle, „KDD ’09”, 2009, s. 502. Dużym wyzwaniem w badaniach nad tematami trendującymi jest próba ich przewidzenia. Nie istnieją skuteczne mechanizmy przewidywania oparte na badaniach naukowych. Istnieją jednak pewne wskazówki, które wykorzystywane są przez wytwórców treści w sieci, w tym przez redaktorów portali horyzontalnych. Dla przykładu trendami są powtarzające się cyklicznie wydarzenia, jak na przykład święta Bożego Narodzenia, zmiana czasu. Także planowane wcześniej wydarzenia o dużym znaczeniu dla społeczeństwa czy świata, w pewnym momencie prawdopodobnie staną się tematami mocno trendującymi, na przykład brexit, igrzyska olimpijskie. Badania wykazały, że najpopularniejsze trendy dotyczą konkretnych, ważnych wydarzeń czy informacji z ostatniej chwili. Jure Leskovec, Lars Backstorm i Jon Kleinberg zaprezentowali przykładowe wykresy pokazujące cykl życia trendu, które zaprezentowano na Ilustracji 13298. Jego charakterystyczną cechą jest szybkie osiąganie maksimum popularności, a następnie równie szybka utrata zainteresowania tematem. Przykładem takiego krótkotrwałego trendu może być pożar katedry Notre Dame. Ilustracja 13. Dynamika występowania i spadku popularności trendów wyszukiwania w Google. Źródło: . Leskovec, L. Backstrom,m. Kleinberg, Meme-tracking and the dynamics of the news cycle, „KDD ’09”. W celu pogłębionej analizy i zrozumienia złożoności problemu tematów trenujących, w badaniach wykorzystano algorytm Google Trends. Jest to narzędzie udostępnione przez Google, które pozwala na analizowanie liczby słów wpisywanych przez użytkowników w wyszukiwarkach. Program umożliwia zarówno analizę bieżącą jak i historyczną oraz możliwość porównywania wyników dla różnych fraz kluczowych lub państw/regionów299. Stronę startową algorytmu Google Trends przedstawiono na Ilustracji 14. 299 Google Trends [dostępny online:] https://trends.google.pl/trends/ Ilustracja 14. Strona główna Google Trends. Źródło: Google Trends. Każda aktywność użytkownika Google (wyszukiwanie konkretnego hasła) jest monitorowana i zapisywana, a następnie sumowana i przedstawiana jako trend. Tematy trendujące mogą być agregowane na poziomie lokalnym oraz globalnym. Następnie dane są udostępniane nieodpłatnie na platformie Google Trends, która umożliwia między innymi: • sprawdzanie trendów wyszukiwania dotyczących konkretnych słów, lub wyrażeń (opcja wyszukiwania); • obserwację zmian w aktualnie istniejących trendach w krajach niemal całego świata300; • dostęp do rocznych raportów zawierających opracowanie dotyczące wykorzystywania wyszukiwarki przez użytkowników; • dostęp do historycznych danych dotyczących trendów od 2004 r.; • porównywanie trendów różnych słów kluczowych w czasie; • analizę danych w oparciu o zakres geograficzny (podział na kraje i regiony); • dostęp do innych raportów analizujących czasowe i geograficzne zainteresowanie poszczególnymi trendami. 300 Google nie posiada danych ze wszystkich krajów ze względu na wykluczenie cyfrowe w państwach słabo rozwiniętych, lub z powodu polityki prowadzonej przez władze państw, wykluczające Google z oficjalnego użytkowania, co ma miejsce na przykład w Chinach. 301 R. Bomba, Narzędzia…, op. cit. s. 60. 302 M. Gąsiewski, Google Trends aktualizowany co godzinę, [dostępny online:] http://www.ittechn ology.us/google-trends-aktualizowany-co-godzine/ [dostęp: 22.10.19r.]. Google udostępnia wyniki analiz na bieżąco na stronie Google Trends301, aktualizując je raz na godzinę302. Raz do roku przygotowuje raporty podsumowujące najmocniejsze trendy w dowolnym kraju, a także na świecie. Najpopularniejsze trendy w polskim Internecie w 2018 i 2019 roku przedstawia Tabela 17. Tabela 17. Najpopularniejsze trendy wyszukiwania w Polsce w 2018 i 2019 roku. 2018: 2019: Źródło: Google Trends. Analiza i porównanie danych zawartych w raportach Google Trends pozwala na określenie poziomu zainteresowania danym tematem w czasie. Pozyskane w ten sposób informacje mogą bezpośrednio przekładać się na działania związane z dyfuzją treści, dokonywaną w ramach portali horyzontalnych, bowiem zwiększona liczba odsłon i realnych użytkowników przynosi wymierne korzyści w formie zwiększonego zainteresowania reklamodawców i co za tym idzie zysku303. 303 M. Kuziak, Pomiaer działań marketingowych w Internecie – przegląd metod i problemów, „Acta Universitatis Lodziensis. Folia Oeconomica”, nr 179/2004, s. 522. 304 A. Turner, M.W. Zieliński, K.M. Słomczyński: Google…op.cit. s. 56. 305 Google Trends – opis indeksu [dostępny online:] https://trends.google.pl/trend [dostęp: 22.11.19r.] 306 R. Bomba, Narzędzia…, op. cit. s. 59. Warto zauważyć, że dane udostępniane przez Google w aplikacji Google Trends pokazują jedynie co jest wyszukiwane przez użytkowników w danym regionie świata. Pomijane są zatem dane dotyczące demografii czy powodów wyszukiwania, które mogą być uzupełniane tradycyjnymi metodami badań nauk społecznych. Anna Turner, Marcin Zieliński i Kazimierz Słomczyński zauważają, że „nie jest konieczne podawanie dokładnych wartości numerycznych, indeksy wyszukiwań w zupełności wystarczą, aby pokazać trend zainteresowania danym tematem”304. Autorzy bronią w ten sposób krytyków Google Trends, który nie prezentuje wyników w formie liczbowej czy procentowej. Zamiast tego posługuje się indeksem wyszukiwania od 0 do 100 punktów, który pokazuje zainteresowanie danym hasłem wśród użytkowników Google w danym czasie i regionie. Indeks na poziomie 100 oznacza najwyższą, zarejestrowaną popularność hasła, zaś na poziomie 50 oznacza, że hasło było dwa razy rzadziej wyszukiwane, niż to z indeksem 100305. Zasadniczym atutem podobnych narzędzi jest możliwość mapowania, wizualizowania i analizowania zachowania użytkowników Internetu ludzkich w niedostępnej wcześniej skali i czasie rzeczywistym306. Przykład ilustrujący siłę trendu uzyskamy poddając analizie hasło „Jan Paweł II” na obszarze Polski, w maksymalnym zakresie czasowym od 2004 do 2019 roku. Wyniki analizy opartej o powyższe założenia przedstawia Wykres 11. Wykres 11. Ilustracja „siły trendu” na przykładzie hasła „Jan Paweł II”. Źródło: Google Trends. Fraza „Jan Paweł II” była wyszukiwana najczęściej w kwietniu 2005 roku, czyli w miesiącu śmierci papieża z Polski. Indeks wyszukiwania dla tego hasła wyniósł wtedy 100 punktów i nigdy już nie osiągnął podobnej wartości. Jak widać na załączonym wyżej wykresie popularność wyszukiwania tematu trendującego maleje wraz z czasem, podnosząc się nieznacznie przy okazji rocznic związanych z Janem Pawłem II i osiągając wynik 15 punktów w dziesięć lat po jego śmierci. Narzędzie Google Trends umożliwia porównanie siły trendu różnych fraz. Aby zilustrować działanie usługi oferowanej przez Google do porównywarki wpisano dwie frazy: „wybory” (czerwony wykres) oraz „wybory parlamentarne” (niebieski wykres). W regionie wyszukiwania zaznaczono Polskę, zaś czas badania obejmował okres od listopada 2018 do października 2019 roku. Otrzymane wyniki przedstawiono na Wykresie 12. Wykres 12. Porównanie siły trendu haseł „wybory” (czerwona linia) oraz „wybory parlamentarne” (niebieska linia) w ujęciu rocznym. Źródło: Google Trends. Z uzyskanych danych wynika, że w okresach wyborczych w Polsce (początek listopada 2018 – wybory samorządowe, maj 2019 – wybory do europarlamentu oraz październik 2019 – wybory do Sejmu i Senatu) istniał silny trend wyszukiwania fraz wyborczych. Przy czym dużo częściej Polacy szukali hasła „wybory”, niż „wybory parlamentarne”. Narzędzie Google Trends pozwala porównywać trendy z uwzględnieniem danych geograficznych. Nie byłoby to możliwe, gdyby nie wykorzystanie indeksu wyszukiwania. Umożliwia on uniknięcie błędu wynikającego z dysproporcji w liczbie ludności w krajach i regionach. Dzięki temu można porównywać popularność haseł w różnych miejscach świata bez obawy o to, że liczba ludności zamieszkująca dany teren wpłynie na całokształt dokonywanej analizy. Przykład podobnego porównania pokazuje Wykres 13. Wykres 13. Porównanie siły trendu na hasło „bieganie” w województwach lubuskim (niebieska linia) i mazowieckim (czerwona linia) w ciągu ostatniego roku. Źródło: Google Trends. Choć w województwie lubuskim mieszka blisko trzy razy mniej osób, niż w województwie mazowieckim, to trend wyszukiwania na hasło „bieganie” bywa wyższy w lubuskim. Taka analiza jest możliwa dzięki wykorzystaniu indeksu wyszukiwania, który uwzględnia dysproporcje demograficzne307. 307 S.M. Stanuch, Jak śledzić Trendy w Google Trends, „Press” nr 03-04/2019. W sieci dostępne są również inne narzędzia pozwalające na zbieranie informacji o trendach w wyszukiwaniu, jak na przykład Senuto, Semstorm, Semrush, Ubersuggest, czy Answerthepublic. Ich działanie nie różni się jednak zasadniczo od tego, co oferuje algorytm Google Trends. Dodatkowym atutem przemawiającym za wyborem usługi Google jest to, że analizuje on największy zbiór big data dotyczących wyszukiwania na świecie. 3.2. Optymalizacja treści i „Google News” jako nowe kanały dyfuzji Jak wykazano wcześniej wyszukiwarki internetowe pozostają jednym z głównych źródeł pozyskiwania informacji przez odbiorców zarówno na świecie, jak i w Polsce. W związku z tym strony internetowe, w tym portale horyzontalne stosują techniki pozycjonowania stron internetowych, inaczej nazywane SEO (z j. ang.: search engine optimization). Ich celem jest uzyskanie jak najwyższej pozycji artykułu w wynikach wyszukiwania Google. Jak wynika z rozmów z przedstawicielami portali internetowych oraz przeglądu literatury branżowej, w redakcjach powstają specjalne działy zajmujące się optymalizacją artykułów na potrzeby Google. Eksperci pracujący w portalach pytani o procedury związane z dyfuzją poprzez wyszukiwarki określili cztery kroki, które należy wykonać w celu odpowiedniej optymalizacji działań na poziomie redakcyjnym. Wśród nich znajdują się: 1) zidentyfikowanie trendu/frazy kluczowej, 2) przygotowanie/optymalizacja treści, 3) bieżąca kontrola efektów podjętych działań, 4) długofalowy monitoring skutków dyfuzji poprzez wyszukiwarki. Zidentyfikowanie trendu polega na sprawdzeniu aktualnych lub przewidzeniu nadchodzących trendów w wyszukiwaniu w czasie. Optymalnym narzędziem wykorzystywanym w tej fazie działań jest opisany wcześniej algorytm Google Trends. Dyfuzję poprzez wyszukiwarki w tym kontekście można podzielić na krótkofalową i długofalową. Istnieją bowiem trendy cykliczne, które można przewidzieć i przypisać do określonej daty (np. wybory, rocznice ważnych wydarzeń, nadchodzące zawody sportowe czy imprezy kulturalne) oraz trendy charakteryzujące się stałością (np. informacje dotyczące atrakcji turystycznych, miast, państw, znanych osobistości żyjących i zmarłych). Przykłady trendów cyklicznych i stałych zilustrowano na Wykresach 14 i 15. Wykres 14. Trendy cykliczne: porównanie fraz „mistrzostwa świata” (czerwona linia) i „WOŚP” (niebieska linia) od 2004 roku w Polsce. Źródło: Google Trends. Google Trends pozwala stwierdzić, które trendy mają większą siłę, czyli są wyszukiwane przez większą liczbę użytkowników. Jak pokazuje Wykres 14. hasło „WOŚP” jest silne co rok w styczniu, szczególnie w dniu kolejnych Finałów Wielkiej Orkiestry Świątecznej Pomocy. Z kolei trend „mistrzostwa świata” w 2013 i 2018 roku miał znacznie większą siłę, niż „WOŚP”. Warto zauważyć, że fraza „mistrzostwa świata” z biegiem czasu była coraz częściej wyszukiwana przez użytkowników Internetu, co może oznaczać, że przyzwyczajają się oni do Google, jako nowego kanału pozyskiwania treści. Dzięki znajomości siły trendu redakcje mogą lepiej zaplanować dyfuzję i skierować odpowiednie środki na materiały, które wyszukuje większa liczba użytkowników. Podobną sytuację zilustrowano na Wykresie 12. Z siły trendu wynika, że w przypadku wyborów do Sejmu i Senatu lepiej optymalizować teksty na frazę „wybory”, niż uściślać ją do frazy „wybory parlamentarne”. Wykres 15. Trendy stałe: porównanie wyszukiwania fraz „dzieci” (czerwona linia) i „Warszawa” (niebieska linia) od 2004 roku w Polsce. Źródło: Google Trends. Jak wynika z powyższego wykresu istnieją frazy, które są wyszukiwane przez użytkowników każdego dnia, nigdy nie zbliżając się nawet do wartości „0”. Sposobem na dotarcie do odbiorcy staje się zatem codzienne zagospodarowywanie podobnych trendów przez twórców treści. Od redakcji portali może zatem zależeć, które frazy i w jakiej kolejności będą przedmiotem optymalizacji. Taka sytuacja może potwierdzać hipotezę zawartą we wstępie do pracy, która zakłada, że nowe technologie wpływają na decyzję wydawnicze podejmowane w redakcjach portali internetowych. Podobne opinie pojawiały się wśród rozmówców, którzy udzielili wywiadów na potrzeby niniejszej pracy. Z identyfikacją trendu wiąże się wyznaczenie fraz kluczowych. Istniejący aktualnie trend w wyszukiwaniu automatycznie staje się frazą kluczową, dla której należy dokonać dalszej optymalizacji treści. Jednak szczególnie w przypadku trendów długofalowych niezbędne jest przewidzenie i sprawdzenie różnych możliwości, które mogą być wyszukiwane przez użytkowników. Przykładem takiej sytuacji są mistrzostwa świata w piłce nożnej, które mogą być wyszukiwane przez użytkowników na różne sposoby np. „mistrzostwa”, „mistrzostwa świata”, „mecz”, „piłka nożna”. Dzięki wykorzystaniu Google Trends można sprawdzić siłę każdej frazy i wybrać tę, która jest wyszukiwana przez najliczniejszą grupę użytkowników. Przykład porównujący popularność trzech fraz dotyczących pogody przedstawiono na Wykresie 16. Wykres 16. Porównanie siły fraz: „pogoda”, „prognoza pogody” i pogoda dla Polski” w ciągu ostatniego roku w Polsce. Źródło: Google Trends. Powyższy wykres ilustruje, że przy wyszukiwaniu informacji pogodowych, użytkownicy w Polsce najczęściej wpisują w wyszukiwarce hasło „pogoda”. Przygotowując się do optymalizacji treści, frazą kluczową powinna być więc „pogoda”, nie zaś inne możliwe formy wyszukiwania jak np. „prognoza pogody”, czy „pogoda dla Polski”. Tego typu analizy mogą być przeprowadzane dla każdego tematu trendującego, bo zwiększa to szansę na dyfuzję optymalizowanej potem treści. Aby ułatwić użytkownikom odpowiedni dobór słów kluczowych Google Trends udostępnia tak zwane tematy, czyli podobne wyszukiwania powiązane z konkretną frazą. Wynika to z występowania w języku polskim homonimów, jak np. „zamek” (w drzwiach, warowania obronna), czy „Wisła” (rzeka, miasto, klub sportowy). Różne znaczenia tych samych słów są segregowane w ramach tematów i udostępniane użytkownikom wyszukującym konkretnych znaczeń308. 308 S.M. Stanuch, Jak…, op. cit. s. 33. Dodatkowym narzędziem umożliwiającym lepsze poznanie innych fraz wyszukiwania zbliżonych do naszego głównego tematu jest autouzupełnianie Google. Wpisując w wyszukiwarce daną frazę, poniżej wyświetlają się podpowiedzi, zawierające frazy wybierane przez użytkowników dotyczące interesującego nas trendu. Przykład autouzupełniania przedstawia Ilustracja 15. Ilustracja 15. Frazy podobne dla słowa „Uniwersytet Jagielloński” ustalone za pomocą autouzupełniania Google. Źródło: Google.com. Dzięki wykorzystaniu autouzupełniania otrzymujemy informacje o frazach kluczowych, które są najczęściej wyszukiwane przez użytkowników. Dzięki temu można w pełniejszy sposób przygotować nowy lub zoptymalizować istniejący artykuł. Przygotowywanie nowych artykułów zalecane jest w sytuacji, gdy na portalu nie istnieje treść zoptymalizowana pod kątem trendującego, zazwyczaj stałego tematu. Z kolei optymalizacja istniejących artykułów dotyczy przede wszystkim treści bieżących i uwzględnia najbardziej aktualne trendy, pokazujące w jaki sposób internauci wyszukują treści w danej chwili. Dzięki wcześniejszym badaniom znamy również inne czynniki wpływające na różne strategie wyszukiwania treści przez odbiorców. Większość użytkowników wpisuje w wyszukiwarkę internetową dwa lub trzy słowa, niewielki procent użytkowników kontynuuje przeglądanie wyników wyszukiwania na drugiej i kolejnej stronie z propozycjami, większość internautów wybiera tylko jeden z proponowanych linków, nie wracając potem do strony głównej wyszukiwarki. Badacze wskazują też na różnice w sposobach wyszukiwania między Stanami Zjednoczonymi a Europą, różnice w odbiorze wyników spowodowane różnym doświadczeniem życiowym, wiekiem czy charakterem309. 309 B. Pan, H. Hembrooke, T. Joachims, L. Lorigo, G. Gay, L. Granka, In Google We Trust: Users’ Decisions on Rank, Position and Relevance, „Journal of Computer-Mediated Communication”, nr 12(3), 2007 s. 64. 310 Link do artykułu nazywany bywa „tytułem SEO”, robot Google rozpoznaje bowiem frazy kluczowe zamieszczone w linkach. 311 M. P. Evans, Analysing Google rankings through search engine optimization data, „Internet Research”, vol. 17/1, 2007, s. 23. Kolejny krok w działaniach SEO to optymalizacja treści, która polega na odpowiednim dobieraniu kluczowych, wyszukiwanych fraz oraz umieszczaniu ich m.in. w linku do artykułu310, tytule wewnętrznym, lidzie, treści, śródtytułach i tagach. Odpowiednio zoptymalizowana treść powinna być jak najdłuższa, unikalna (nie powinna kopiować lub powtarzać materiałów znajdujących się na innych stronach), zróżnicowana wewnętrznie, często aktualizowana, zawierać linki do innych artykułów znajdujących się w serwisie. Istotne jest też używanie odpowiednich fraz kluczowych w innych elementach wchodzących w skład wiadomości np. w podpisach zdjęć, filmach, grafikach. Michael P. Evans wskazuje na złożoność fenomenu optymalizacji, na który składa się setki czynników używanych przez Google do wyliczania rankingu strony, nieujawnianie informacji dotyczących istotności poszczególnych czynników oraz zmian wprowadzanych w algorytmie wyszukiwania. Autor dostrzega także duże prawdopodobieństwo faktu, że waga poszczególnych składowych, które analizuje algorytm Google, zmienia się wraz z kolejnymi stronami, na których prezentowane są wyniki wyszukiwania311. Po dokonaniu przez redaktorów optymalizacji treści następuje trzecia faza polegająca na bieżącym monitorowaniu miejsca artykułu w wynikach wyszukiwania, obserwacji zmian w trendzie oraz aktualizowaniu artykułu zgodnie z nowymi, pojawiającymi się frazami. W momencie, gdy zaobserwowana zostanie zmiana w Google Trends należy na nowo optymalizować artykuł, aby był on cały czas widoczny w wynikach wyszukiwania na jak najlepszych pozycjach. Managerowie portali przyznają, że celem jest ekspozycja w co najmniej pierwszych wynikach wyszukiwania lub miejsce w „Wiadomościach Google”. Czwarty etap optymalizacji polega na działaniach następczych. Długofalowy monitoring skutków dyfuzji poprzez wyszukiwarki zakłada dalszą obserwację trendu, opis jego powstania, fazy rozwoju, maksymalnej widoczności i spadku popularności. Po poznaniu „historii” trendu możliwe jest sprawdzenie skuteczności podjętych procedur optymalizacyjnych z uzyskanymi dzięki ich zastosowaniu wynikami. Dzięki podobnym analizom możliwe jest wprowadzanie korekt w działaniach redakcji, w celu jeszcze lepszej optymalizacji artykułów w przyszłości. Nie wiadomo jak wiele treści w portalach jest optymalizowanych pod kątem wyszukiwarek internetowych. Z przeprowadzonych wywiadów wynika, że istnieją specjalne stanowiska i osoby zajmujące się takimi właśnie działaniami. Poza działaniami redakcyjnymi w treści artykułów, można także mówić o szeroko pojętej optymalizacji w kodzie stron internetowych. Ten rodzaj działań SEO jest niewidoczny z poziomu odbiorcy. Skupia się na aktywności programistów i twórców architektury strony internetowej. Wśród najważniejszych działań podejmowanych na tej płaszczyźnie znajduje się ciągłe dostosowywanie stron do światowych standardów wyznaczonych przez World Wide Web Consorcium, dbanie o szybkość serwerów i szybki czas ładowania strony, instalacja kodów Google Analitics, umożliwienie przyjaznego ładowania strony w przeglądarkach nieobsługujących zaawansowanych rozwiązań typu Flash, czy generowanie przyjaznych, skróconych linków. Sytuacja ta wzmacnia przytaczane wcześniej tezy, o konieczności współpracy humanistów i informatyków w dobie tworzenia się sieci semantycznej. Nie budzi zdziwienia ożywiony dyskurs naukowy, który toczy się wokół wyszukiwarki Google, ze względu na jej ogromne znaczenie dla rozwoju współczesnego świata. Jan Brophy i David Bawden zauważają, że dzięki wyszukiwarkom dostęp do wiedzy i informacji jest szybszy i bardziej efektywny. Sytuacja ta implikuje jednak mylne wrażenie, że można w nich znaleźć wszystkie istniejące informacje i całą wiedzę. Tymczasem Google nie zastąpi nigdy w pełni zasobów bibliotecznych, które wciąż stanowią podstawę badań naukowych312. W konkluzji swoich badań porównawczych nad wyszukiwarkami internetowymi i zbiorami bibliotecznymi autorzy wskazali, że mogą stanowić one dla siebie komplementarne źródła wiedzy. W tematykę wpisuje się również rozwój katalogów bibliotecznych udostępnianych w sieci, nazywanych „subject gateways”. Jak stwierdza Lidia Derfert-Wolf systematyzują one wiedzę z danej dziedziny, 312 J. Brophy, D. Bawden, Is Google enough? Comparison of an internet search engine with academic library resources, „Aslib Proceedings: New Inforation Perspectives”, vol. 57, nr 6, 2005 s. 499. katalogują istniejące zbiory tematycznie, przy jednoczesnej publikacji w sieci krótkich notek opisujących daną pozycję313. Tego typu rozwiązania mogą być bardzo przydatne dla naukowców, poszukujących publikacji dotyczącej ściśle określonej tematyki. Nie ukrywam, że w toku przygotowań do napisania rozprawy bardzo często z podobnych katalogów korzystałem. 313 L. Derfert-Wolf, Serwisy tematyczne o kontrolowanej jakości w Internecie - subject gateways, B. Bednarek-Michalska (red.), „Biuletyn EBIB” nr 6/2004 (57), [dostępny online:] https://core.ac.uk/download/pdf/11879041.pdf [dostęp 27.12.19r.]. 314 W. Gogołek, Komunikacja… op. cit. s. 257. Włodzimierz Gogołek, włączając się w dyskurs o wyszukiwarkach, pokazuje paradoks związany z nadmierną ilością danych i informacji zgromadzonych w sieci. Jest nim godzenie się przez społeczeństwo na konieczność korzystania z pośredników, narzędzi agregujących takich jak Google. „Akceptacja tej sytuacji jest milczącą aprobatą ograniczanej swobody informacyjnej”314 – pisze autor. Jak dodaje innym kosztem nadmiernego wykorzystywania wyszukiwarek jest ograniczenie własnej inicjatywy twórczej, na rzecz korzystania z gotowych i łatwo dostępnych rozwiązań. Kolejna kontrowersja dotyczy faktu, że Google dysponuje niewyobrażalnym zasobem danych na temat użytkowników, który jest wykorzystywany w niekontrolowany sposób i może być także sprzedawany osobom trzecim. Wątpliwości etyczne budzi również możliwość jednostronnych, niekontrolowanych w żaden sposób decyzji, dotyczących wyłączenia danej strony z wyników wyszukiwania w Google. Takie decyzje mogą w realny sposób wpłynąć na działanie wszystkich stron internetowych na świecie, w tym polskich portali. W przeprowadzanych na potrzeby pracy wywiadach rozmówcy opisywali sytuacje, w których nagła zmiana algorytmu pozycjonującego strony, doprowadzała do kilkudziesięcioprocentowych spadków w ruchu generowanym na portalach przez wyszukiwarki. W przypadku wielomilionowego ruchu z tego źródła, oznaczało to spadki rzędu kilkuset tysięcy użytkowników miesięcznie, co mogło przełożyć się na realne straty finansowe. Powyższe stwierdzenie potwierdzają zgromadzone dane. We wrześniu 2019 roku dzięki dyfuzji poprzez wyszukiwarki Onet zwiększył swój ruch o 21,21 milionów, Interia o 19,57 milionów a Wirtualna Polska o 22,97 milionów wizyt. Dane nie dotyczą jednak liczby użytkowników a jedynie ruchu, który oni wygenerowali (wizyty). Znaczenie wyszukiwarki Google dla dyfuzji treści przez polskie portale przedstawia Wykres 17. Wykres 17. Liczba użytkowników przekierowanych z Google do portali Onet, WP i Interia we wrześniu 2019 roku. Źródło: SimilarWeb. Ruch generowany z wyszukiwarek jest ważny dla portali horyzontalnych również dlatego, że dzięki niemu napływają do nich użytkownicy, którzy na co dzień nie odwiedzają ich stron głównych. Dzięki temu poprawiają się statystyki dotyczące odwiedzin unikalnych użytkowników w ujęciu miesięcznym i rocznym. W kontekście powyższych rozważań dyfuzję poprzez wyszukiwarki można określić mianem dwutorowej. Z jednej strony portale starają się o jak najlepszą widoczność w wynikach wyszukiwania poprzez optymalizowanie już istniejących materiałów, z drugiej na podstawie stałych bądź cyklicznych trendów powstają zupełnie nowe treści. Specyficznym kanałem dyfuzji treści w sieci udostępnionym przez Google są Wiadomości Google (Google News). To stworzony przez wyszukiwarkę agregat treści, publikowanych przez portale polskie i zagraniczne. W przypadku wyszukiwania frazy (najczęściej trendu), na podstawie którego redakcje portali generują treść, w wynikach wyszukiwania pojawiają się trzy materiały o charakterze informacyjnym (newsowym), promowane przez agregat Google jako „najważniejsze artykuły”. Wygląd Google News prezentuje Ilustracja 16. Ilustracja 16. Wyniki wyszukiwania frazy „wybory” w Wiadomościach Google. Źródło: Google.com. Z wywiadów eksperckich z pracownikami redakcji wynika, że portalom zależy na dyfuzji treści poprzez nie tylko na poprzez wysokie miejsca w organicznych wynikach wyszukiwania, ale również poprzez sekcję „Wiadomości Google”. Istnieje bowiem spora grupa użytkowników, która wybiera jeden z trzech proponowanych przez algorytm Google artykułów (ruch generowany w ten sposób stanowi ok. 1% ruchu portali w ogóle). Można zatem powiedzieć, że algorytm „Wiadomości Google” stał się kolejnym źródłem dyfuzji dla portali horyzontalnych. Dostępne narzędzia rozróżniają ruch generowany przez „Wiadomości Google” od ruchu indeksowanego jako pochodzący z wyszukiwarki. Zgodnie z tymi danymi wyszukiwanie poprzez „Google Wiadomości” stanowi około 1% całego ruchu Onetu, Wirtualnej Polski i Interii. Zdaniem pracowników portali trwa rywalizacja między redakcjami, o jak najlepszą ekspozycję w usłudze oferowanej przez Google. 3.3. Profile głównych portali informacyjnych w Polsce Jak wykazałem we wcześniejszych częściach rozprawy, jednym z głównych miejsc, w których dochodzi do dyfuzji treści są media społecznościowe. Sama definicja może skłaniać do wniosku, że w ich ontologiczne podstawy wpisana jest dyfuzja treści. Wydaje się, że social media najlepiej zdefiniować, jako systemy pozwalające swoim użytkownikom na dzielenie się i komentowanie wytworzonych lub wyselekcjonowanych przez nich treści (notek, linków, artykułów, opinii, zdjęć, informacji, grafik, książek)315. 315 A. Guille, H. Hacid, C. Favre, D.A. Zighed, Information… op.cit. s. 2. Do najpopularniejszych mediów społecznościowych, generujących ruch na polskich portalach horyzontalnych, należą Facebook (64,44% całości ruchu z mediów społecznościowych), Youtube (15,28%), nk.pl (7,80 %), Twitter (5,37%), Instagram (0,80%), Reddit (0,51%), Linkedin (0,34%), Badoo (0,20%). Analizy big data pokazują także udział poszczególnych portali, w ruchu generowanym przez konkretne social media. Podstawowe dane przedstawia Wykres 18. Wykres 18. Największe kanały dyfuzji w mediach społecznościowych, generujące ruch na portalach informacyjnych od lipca do września 2019 roku. Źródło: SimilarWeb. Powyższy wykres pokazuje, że dominującym kanałem dyfuzji wykorzystywanym przez portale horyzontalne pozostaje Facebook. Z tego względu w dalszej analizie skupiono się przede wszystkim na nim. We wstępie do pracy zawarłem hipotezę zakładającą, że zmieniająca się rzeczywistość technologiczna i medialna, wpływa na działania portali horyzontalnych, zmuszając je do poszukiwania nowych dróg dyfuzji. Takimi nowymi drogami dyfuzji nazwać można profile portali w mediach społecznościowych. Weryfikacja ich liczby oraz zasięgu wśród użytkowników może zatem stanowić potwierdzenie hipotezy. Tabela zawierająca zestawienie wszystkich profili stworzonych przez Onet, Wirtualną Polskę i Interię oraz liczby ich subskrybentów, znajduje się w aneksie na końcu pracy. Z przeprowadzonych badań porównawczych wynika, że najwięcej aktywnych profili na Facebooku prowadzi Onet – 34, druga jest Wirtualna Polska – 26 profili, trzecia Interia – 14 profili. Analiza zgromadzonych danych prowadzi do wniosku, że tematyka stron portali w social mediach, częściowo pokrywa się ze strukturami redakcyjnymi. Największe zainteresowanie użytkowników, mierzone liczbą osób obserwujących, budzą profile ogólne, informacyjne i sportowe. Na profilach ogólnych pojawiają się treści o wielorakiej tematyce ze wszystkich dziedzin, profile informacyjne najczęściej przekazują bieżące wiadomości (newsy) z kraju i ze świata, podobnie jak profile sportowe. Wśród pozostałych największych stron portali na Facebooku można wskazać te o tematyce lifestylowej, muzycznej, kobiecej i zdrowotnej. W przypadku Onetu wśród pięciu najpopularniejszych profili, znalazł się „Onet 100 International”, który subskrybowało ponad 400 tys. użytkowników. Profil przestał być jednak rozwijany z nieznanych przyczyn. Na Wykresie 19. pokazano różnicę w liczbie użytkowników między profilami głównymi, informacyjnymi i sportowymi trzech analizowanych portali. Wykres 19. Różnica w liczbie subskrybentów profili ogólnych, informacyjnych i sportowych Onetu, WP i Interii na Facebooku. 1055709 401781 753686 636734 638303 622489 100 755 170930 72089 PROFIL OGÓLNY INFORMACJE SPORT Onet WP Interia Źródło: opracowanie własne. Jak wynika z powyższego wykresu najwięcej subskrybentów profilu ogólnego posiada Onet, którego obserwuje ponad milion użytkowników. W przypadku profilu informacyjnego dominuje Wirtualna Polska z ponad 600 tys. obserwujących, zaś w przypadku profilu sportowego wygrywa Onet z ponad 750 tys. użytkowników. Powyższe zestawienie wskazuje również, że najmniejszą liczbę subskrybentów posiadają profile Interii, które oscylują w granicach 100 tys. odbiorców. Przeprowadzona analiza potwierdza tezę mówiącą, że polskie portale horyzontalne świadomie korzystają z Facebooka, jako kanału dyfuzji treści. Świadczy o tym fakt codziennego wydawania największych profili portali, a więc uzupełniania je o nowe zasoby oraz tworzenia dedykowanych profili dla różnych serwisów tematycznych, które mają już jednak znacznie mniej subskrybentów. Aby lepiej poznać i zrozumieć aktywność użytkowników głównych portali internetowych przeprowadzono analizę najważniejszych wskaźników, takich jak liczba postów, zaangażowanie użytkowników, liczba interakcji, dla wszystkich treści na Facebooku pojawiających się na profilach ogólnych, informacyjnych i sportowych w dwóch okresach: od 1 lipca 2018 roku do 30 czerwca 2019 roku oraz od 8 lipca 2019 roku do 21 lipca 2019 roku. Taki dobór dat jest motywowany możliwością dostrzeżenia zarówno długofalowych trendów, jak i krótkoterminowych zmian zachodzących w dyfuzji treści w mediach społecznościowych. Do przeprowadzenia badań w oparciu o big data wykorzystano program FanpageKarma, który umożliwia statystyczną analizę ogólnodostępnych profili w mediach społecznościowych. Użycie opisywanego algorytmu zostało zarekomendowane, podczas wywiadów eksperckich z przedstawicielami portali, którzy wskazywali na jego możliwości oraz globalny zasięg. FanpageKarma wykorzystuje dane, pochodzące z ponad 10 milionów profili w mediach społecznościowych. Program dostarcza m.in. informacji na temat: liczby użytkowników, wzrostu liczby użytkowników, liczby zamieszczanych postów, sumy interakcji (polubień, komentarzy i udostępnień), wylicza procent zaangażowania użytkowników i na podstawie powyższych danych szacuje wartość strony, przyrost lub spadek obserwujących fanów. Program wyodrębnia też konkretne typy postów (posty do artykułów, posty wideo, posty ze zdjęciami), a także pokazuje wszystkie typy reakcji użytkowników316. FanpgeKarma wyodrębnia grupy użytkowników oraz pozwala porównywać i przekształcać dane z różnych obszarów. Algorytm pozwala na tworzenie zbiorów danych o najbardziej popularnych postach pojawiających w danym okresie na portalach społecznościowych. Poszczególne wskaźniki podawane przez algorytm omawiam bardziej szczegółowo w toku wywodu. 316 Facebook udostępnia reakcje nie tylko w postaci popularnych polubień, ale też na przykład radosnych, smutnych, zachwyconych czy złych emotikonów. W dwóch tabelach poniżej zamieszczono najważniejsze dane dotyczące profili ogólnych, informacyjnych i sportowych Onetu, Wirtualnej Polski oraz Interii znajdujących się na Facebooku. Dobór profili opierał się na wcześniejszych badaniach i motywowany był liczbą osób obserwujących profile. Źródło: FanpageKarma Tabela 18. (część B) Analiza wybranych profili portali w okresie od 8 lipca do 21 lipca 2019 roku Tabela 18. (część A) Analiza wybranych profili portali w okresie od 1 lipca 2018 do 30 czerwca 2019 roku Pierwszym ważnym wskaźnikiem podawanym przez algorytm FanpageKarma jest Page Performance Index (PPI), który umożliwia porównanie wzrostu liczby użytkowników oraz ich zaangażowania w publikowane posty. Jest on uważany przez praktyków zajmujących się analizą profili w mediach społecznościowych za jeden z najbardziej miarodajnych wskaźników ich wzrostu317. 317 K. Kruse, Top 10 Facebook Marketing KPIs (Key Performance Indicators), 2018 [dostępny online:] https://www.krusecontrolinc.com/top-facebook-marketing-kpis-key-performance-indicators [dostęp: 28.07.19]. W badanych okresach widać wyraźne różnice we wskaźniku PPI. W ciągu roku najwyższy wskaźnik odnotował profil Onet Wiadomości (25% PPI), na drugim miejscu znalazł się profil WP Sportowe Fakty (21% PPI). Cztery kolejne profile uzyskały odpowiednio wynik 11% PPI (WP Wiadomości i Wirtualna Polska) oraz 10% PPI (Onet Sport i Onet). W okresie dwutygodniowym liderem okazał się profil WP SportoweFakty. Powiększył się o pond 2100 fanów (do 646 tys.), którzy w sumie w ciągu dwóch tygodni wykonali ponad 308 tysięcy interakcji, co dało wskaźnik PPI na poziomie 35%. Średni roczny wzrost wskaźnika PPI dla wszystkich badanych profili wyniósł 15%. Oznacza to ogromny potencjał, mediów społecznościowych jako nowego źródła dyfuzji treści oraz może stanowić potwierdzenie hipotezy zawartej we wstępie do pracy. Trzy największe profile Interii nie zostały w ogóle sklasyfikowane w rocznym wskaźniku PPI ze względu na zbyt mały wzrost liczby użytkowników i ich interakcji. W ujęciu dwutygodniowym z lipca 2019 roku widać jednak starania Interii o wzrost dyfuzji treści w mediach społecznościowych. W tym czasie profil ogólny zajął drugie miejsce ze wskaźnikiem PPI na poziomie 14%, zaś Interia Fakty miała piąte miejsce (PPI na poziomie 9%). Inwestowanie w coraz skuteczniejszą dyfuzję za pomocą mediów społecznościowych potwierdzają również wywiady przeprowadzone na potrzeby niniejszej pracy. Kolejny wskaźnik, który może stanowić potwierdzenie tezy o tym, że trendy i profile w mediach społecznościowych, kreowane przez polskie portale internetowe z czasem zyskują coraz większy zasięg wśród użytkowników jest bezwzględny i średni dzienny przyrost użytkowników, pokazujący jak wielu nowych fanów zyskują analizowane profile w czasie. W ciągu roku, średnio dla każdego z dziewięciu badanych profili przyrost wyniósł 26 tysięcy nowych fanów. Liderem w ujęciu rocznym były WP Sportowe Fakty, które średnio dziennie zaczynało obserwować 118 osób. Na drugim miejscu znalazł się profil Onet Wiadomości, który średnio dziennie notował wzrost subskrybentów o 100 osób. Trzeci był profil Onet Sport, który dziennie obserwowało więcej o 83 osoby. W ujęciu dwutygodniowym można dostrzec inne trendy, będące ważnym wskaźnikiem dla wydawców stron oraz redaktorów odpowiedzialnych za zarządzanie treściami w mediach społecznościowych. Dla przykładu profil Onet Sport w dwóch tygodniach lipca 2019 roku, tracił dwudziestu użytkowników dziennie, podczas gdy konkurencyjny profil WP Sportowe Fakty zyskiwał 149 obserwujących dziennie. Może to świadczyć o nieodpowiednim zarządzaniu profilem Onetu i bardziej angażującymi treściami publikowanymi przez profil Wirtualnej Polski. Przyczyn można się również doszukiwać w ewentualnej lepszej dyfuzji treści sportowych dokonywanej przez WP.pl, czyli w konkretnej decyzji wydawniczej, która wpłynęła na zwiększony zasięg treści publikowanych na profilu, a co za tym idzie na zwiększony przyrost użytkowników. Weryfikację powyższych tez mogą zapewnić dalsze badania nad dyfuzją. Z dokonanych analiz wynika, że w ciągu roku najwięcej postów publikują profile ogólne Onet oraz Wirtualna Polska (po 18 tys.). Oznacza to, że dziennie na tych profilach pojawia się po ok. 50 postów. Nieco mniej publikują profile informacyjne Onetu i WP.pl – po 12 tys. postów rocznie (ponad 30 postów dziennie). Znacznie mniej treści pojawiło się na profilach Interia Fakty oraz Interia – odpowiednio 5,5 tys. oraz 3,4 tys. Przeprowadzona analiza umożliwia również wyodrębnienie kategorii publikowanych postów. Zdecydowana większość z nich to linki do artykułów na portalach. Wyjątek stanowią profile ogólny oraz informacyjny Onetu, które w ciągu roku opublikowały łącznie 4,8 tys. postów, będących materiałami wideo. Dla porównania profile ogólny i informacyjny Wirtualnej Polski opublikowały ich niespełna 500. Powyższe statystyki wskazują na różne trendy i decyzje wydawnicze podejmowane w redakcjach największych polskich portali internetowych. Z przywołanych danych można wywnioskować, że w Onecie nacisk na dyfuzję materiałów wideo jest większy, niż w pozostałych portalach. Może to stanowić potwierdzenie hipotezy zakładającej, że nowe kanały dyfuzji treści wpływają na politykę wydawniczą redakcji. Liczby publikowanych postów w ujęciu dwutygodniowym i rocznym nie różnią się od siebie w sposób statystycznie znaczący. Opierając się na przeprowadzonych wywiadach oraz powyższych analizach można założyć, że firmy prowadzą świadomą i dobrze zaplanowaną politykę wydawniczą dotyczącą dyfuzji treści w mediach społecznościowych. W badaniu za pomocą algorytmu FanpageKarma ujęto wskaźniki świadczące o zaangażowaniu użytkowników w publikowane treści. Pierwszy to liczba reakcji na dyfundowane treści (z j. ang.: number of reactions). Do reakcji zalicza się tak zwane „lajki” (polubienia, lub inne emotikony wyrażające emocje zamieszczane pod artykułem, po kliknięciu w odpowiednią ikonę reakcji). Wskaźnik ten pozostawiono dla lepszego zobrazowania różnicy między liczbą reakcji, a całkowitą liczbą działań angażujących użytkowników (interakcji), do których zalicza się także komentarze pod zamieszczanymi postami oraz udostępnianie postów, które jest kluczowe ze względu na dyfuzję treści. W ujęciu rocznym najbardziej angażujące użytkowników treści publikowano na profilach: • Onet – profil ogólny - 4,8 miliona interakcji; • WP Wiadomości – 4 miliony interakcji; • WP – profil ogólny – 3,7 miliona interakcji; • WP Sportowe Fakty – 3,4 miliona interakcji; • Onet Wiadomości – 2,2 miliona interakcji; • Onet Sport – 1,6 miliona interakcji; • Interia Fakty – 543 tys. interakcji; • Interia – profil ogólny – 360 tys. interakcji; • Interia Sport – 24 tys. interakcji. Opierając się na powyższych danych nie można dojść do wniosku, że użytkownicy chętnie konsumują i reagują na treści, które dostarczane są im poprzez media społecznościowe. Aby sprawdzić powyższą tezę posłużono się dwoma dodatkowymi czynnikami, to jest engagement (z j. ang.: zaangażowanie) i post interaction (z j. ang.: interakcje na post). Wskaźnik zaangażowania oblicza się dzieląc ogólną liczbę wszystkich interakcji z danego dnia przez liczbę użytkowników profilu. Wskaźnik post interaction uświadamia jak chętnie fani angażują się w publikowaną treść (im jest wyższy, tym lepiej). Oblicza się go dzieląc liczbę interakcji przez ogólną liczbę fanów oraz liczbę postów zamieszczonych w danym czasie, z pominięciem dni, w których nie doszło do żadnej interakcji. Obliczeń można dokonać na podstawie zamieszczonych poniżej wzorów. E = I(t) / U Pi = E / W(t) gdzie: Pi – post interaction E – engagement, zaangażowanie I(t) – interakcje w danym czasie W(t) – liczba postów opublikowanych w danym czasie U – liczba użytkowników profilu. Dla największych profili portali Onet, WP i wskaźnik „post interaction” w ujęciu rocznym prezentuje się następująco: • Onet Wiadomości - 0,048% • WP Sportowe Fakty - 0,06% • WP Wiadomości - 0,05% • Wirtualna Polska - 0,033% • Onet Sport - 0,02% • Onet - 0,025% • Interia Fakty - 0,056% • Interia - 0,048% Powyższe dane pokazują, że użytkownicy niechętnie angażują się w prezentowane im treści, co może wynikać z kilku powodów. Pierwszym jest publikowanie nieatrakcyjnych dla odbiorców treści. Materiały takie nie budują zainteresowania, a co za tym idzie nie dyfundują skutecznie w mediach społecznościowych. Drugi powód może wynikać ze zmian w polityce Facebooka, który ogranicza zasięgi profili instytucjonalnych zgodnie z polityką stosowaną od 2016 roku „remove, reduce, inform” (z j. ang. usuwać, redukować, informować). Zakłada ona usuwanie wiadomości, które naruszają zasady Facebooka, redukowanie dyfuzji treści o niskiej jakości oraz informowanie użytkowników na temat treści i produktów, które pomogą im w wyborze najbardziej zaufanych źródeł informacji318. Najnowszą odsłonę tej polityki zaprezentowano w kwietniu 2019 roku. Facebook wprowadził do użytku algorytm, który ograniczał dyfuzję postów pochodzących ze stron nieposiadających innych źródeł ruchu poza mediami społecznościowymi. Właściciele portalu wyszli z założenia, że strony dyfundujące jedynie w mediach społecznościowych nie są wiarygodne, ponieważ nie zbudowały grona stałych odbiorców poza Facebookiem. Trzecim powodem niskiego zaangażowania odbiorców w publikowane treści może być przytaczana wcześniej Reguła 1%, która zakłada, że 90% użytkowników biernie przegląda prezentowane im treści, 9% udostępnia je i przetwarza, zaś 1% tworzy nowe treści. Wskaźniki zaangażowania użytkowników profili polskich portali sugerują trafność powyższej reguły. 318 G. Rosen, T. Lyons, Remove, Reduce, Inform: News Steps to Manage Problematic Content, [dostępny online:] https://about.fb.com/news/2019/04/remove-reduce-inform-new-steps/ [dostęp: 22.12.19r.]. 319 S. Bay, R. Fredheim, Falling Behind: How Social Media Companies are Falling to Combat Inauthentic Behaviour Online, Wyd. NATO Strategic Communications Centre of Excellence, Ryga 2019, s. 23. Kolejnym powodem braku zaangażowania prosumentów może być fakt, że spora grupa użytkowników śledzących profile portali to konta nieaktywne, porzucone lub wprost kupione przez redakcje. Choć proceder ten jest wątpliwy etycznie, to istnieje szereg firm oferujących możliwość „kupienia” obserwujących. Jak wynika z raportu opublikowanego przez NATO w listopadzie 2019 roku za 300 euro można było kupić 3530 komentarzy, 25750 polubień, 20000 wyświetleń i 5100 obserwujących. W raporcie wykazano również, że Facebook nie usuwa zakupionych w ten sposób, fałszywych kont, nawet mimo zgłoszenia319. Fakt opracowania podobnego raportu wskazuje na wagę, jaką NATO przykłada do toczącej się w mediach społecznościowych wojny informacyjnej, w której główną bronią jest dyfuzja treści. Wagę sprawy podkreśla fakt, że analitycy NATO zidentyfikowali fałszywe (zakupione) zaangażowanie w 721 profilach przekazujących treści polityczne, 52 profilach rządowych, w tym dwóch oficjalnych profilach prezydenckich. Nie ujawniono o jakich polityków chodzi. Interpretując wskaźniki zaangażowania trzeba mieć również na uwadze dużą liczbę postów zamieszczanych przez portale oraz dużą liczbę użytkowników obserwujących profile. Im jest ich więcej, tym obliczenia dokonywane przez algorytmy będą wskazywać niższe wartości zaangażowania. Jak do tej pory nie opracowano narzędzia, które służyłoby do korekt w obliczeniach, ze względu na brak możliwości weryfikacji prawdziwości kont w mediach społecznościowych. Liczby bezwzględne dotyczące interakcji wskazują, że media społecznościowe stanowią obecnie ważny kanał dyfuzji. Tezę tę potwierdza fakt zatrudniania przez portale internetowe specjalnych osób zajmujących się publikacją treści w social mediach320. Jak wynika z dostępnych ofert pracy do zakresu ich obowiązków należy m.in. prowadzenie kampanii w mediach społecznościowych, przygotowywanie angażujących materiałów, planowanie akcji dla klientów, przeprowadzanie płatnych kampanii. 320 Oferta pracy Ringier Axel Springer, „Specjalista ds. social media” [dostępny online:] https://www.pracuj.pl/praca/specjalista-ds-social-media-warszawa,oferta,6489735 [dostęp:] 22.12.19r. ROZDZIAŁ IV. METODOLOGIA BADAŃ WŁASNYCH NAD PROCESAMI DYFUZJI Tu, na ziemi, jest więcej tajemnic, niż myślą uczeni. Na przykład Internet... Internet może być sumą ludzkich dusz. Dorota Terakowska, „Ono” Zoperacjonalizowane w toku pracy teorie i narzędzia, dają podstawy do wyprowadzenia propozycji konkretnej wykładni metodologicznej, którą można zastosować w dalszych badaniach nad dyfuzją treści w środowisku Internetu. Temu zagadnieniu poświęcam poniższy rozdział, w którym zawieram usystematyzowany opis różnych podejść badawczych, stosowanych w analityce sieci. Zakładam, że mogą one pomóc w określeniu kryteriów, jakimi kierują się portale przy analizach dotyczących rozprzestrzeniania własnych zasobów w sieci. Przegląd wykorzystywanych metodologii prowadzi do wniosku, że dyfuzję można rozpatrywać z trzech głównych perspektyw: użytkownika, strony internetowej oraz samej treści. Rozważania uzupełnia dodatkowo prezentacja metod i technik, które były wykorzystywane w dotychczasowych badaniach nad dyfuzją. 4.1. Badania site-centric Każda czynność dokonywana przez ludzi w Internecie pozostawia ślady, które mogą dostarczyć informacji na temat zachowania i decyzji podejmowanych przez użytkowników321. Dzięki zastosowaniu różnych metodologii i narzędzi badawczych możliwe wydaje się pogłębienie wiedzy na temat badań nad dyfuzją treści, będącej zjawiskiem wpływającym na naszą codzienność. Jak słusznie zauważa Magdalena Szpunar Internet jest nieprzebranym rezerwuarem danych o charakterze społecznym i kulturowym. Autorka wskazuje, że „nowe narzędzia technologiczne funkcjonujące w przestrzeni Internetu bądź poza nim stanowią dzisiaj jeden z głównych czynników przeobrażających metodologię badań społecznych. Ułatwiają 321 H. Taneja, U. Mamoria, Measuring Media Use across platforms: evolving audience information systems, „The International Journal on Media Management”, Vol. 14 nr. 2, 2014 s. 124. one proces zbierania danych, ich analizowanie czy wizualizowanie. Internet traktowany jako przedmiot badań to rezerwuar nieprzebranych danych o charakterze społeczno-kulturowym”322. Szersze spojrzenie na metodologie służące poznaniu zachowania użytkowników sieci i sposobów dyfuzji treści, pozwoli również na rozpoznanie ewentualnych zagrożeń, które mogą wpłynąć na wyniki badań323. 322 M. Szpunar, Nowe media: nowe metody…, op. cit. s. 327. 323 Ibidem, s. 328. 324 M. Szpunar, Internet w procesie gromadzenia danych o charakterze wtórnym „Studia Medioznawcze”, nr 2(37), 2009, s. 141. 325 J. Niederdeppe, Conceptual, empirical, and practical issues in developing valid measures of public communication campaign exposure, „Communication Methods and Measures” , vol. 8 nr 2, 2014 s. 142. 326 K. Holmqvist, M. Nyström, R. Andersson, R. Dewhurst, H. Jarodzka, J. Weijer, Eye tracking: A comprehensive guide to methods and measures, Oxford 2010, s. 240-241. 327 M. Szpunar, Badania Internetu vs. badania w Internecie, czyli jak badać nowe medium – podstawowe problemy metodologiczne, „Studia Medioznawcze” 2007, nr 2(29), s. 83. 328 M. Lisowska-Magdziarz, Zaproszenie do dyskusji o potrzebie integracji instrumentarium badawczego medioznawcy, J. Fras (red.) „Studia nad mediami i komunikowaniem masowym”, Wyd. Adam Prószyński, Toruń 2007, s. 59. W nauce dominują dwa główne paradygmaty dotyczące badań nad Internetem. Pierwszy nazywany jest pasywnym (biernym), ponieważ nie zakłada udziału naukowca w procesie gromadzenia danych324. Przykładem takiego podejścia będzie przetwarzanie i analiza big data, przy pomocy specjalistycznych programów statystycznych. Drugi paradygmat nazywany jest aktywnym, ponieważ zakłada udział naukowca, już na etapie zbierania danych. Przykładem takich badań będą ankiety, kwestionariusze325, grupy fokusowe, eye-tracking326, czy rejestracja zmian psychosomatycznych organizmu na prezentowane treści. Wydaje się, że można przeprowadzić typologię badań nad Internetem, opierając się na trzech podstawowych perspektywach: user-centric (użytkownik), site-centric (strona internetowa)327 oraz content-centric (analiza treści, która nie jest jednak tożsama ze standardową, znaną w nauce o mediach analizą treści). Badaniami user-centric i site-centric zajmują się duże korporacje medialne jak np. Polskie Badania Internetu Gemius. Podobne firmy dostarczają danych dotyczących oglądalności prezentowanych treści na potrzeby dużych koncernów medialnych i reklamodawców. Z kolei badania polegające na analizie treści pojawiających się w sieci, wciąż należą do rzadkości328. Badania site-centric polegają na analizie danych zbieranych przez serwery, które rejestrują każdą aktywność użytkownika na stronie i zapisują ją w postaci logów w dzienniku. Pozwala to na obserwację zachowania i nawigacji użytkowników po witrynie zarówno w czasie rzeczywistym, jak i późniejszą analizę trendów występujących w danych okresach329. Największym dostawcą świadczącym usługi w zakresie analiz site-centric są SimilarWeb i Google Analytics. To drugie narzędzie wykorzystywane jest przez właścicieli ponad 31 milionów stron internetowych330. Opis danych uzyskiwanych dzięki badaniom site-centric znajduje się w Tabeli 19. 329 J. Webster, P. Phalen, L Lichty, Ratings analysis: audience measurement and analytics, Nowy Jork 2014, s. 73-76. 330 Google Analytics usage statistics, [dostępny online:] https://trends.builtwith.com/analytics/Google-Analytics [dostęp: 27.12.19r.]. 331 M.C. Fisher, The pageview is passé: new metrics emerge to measure audiences „American Journalism Rewiev”, 2014, [dostępny online:] http://ajr.org/2014/03/18/pageview-passe-new-metrics-emerge-measure-audiences/ [dostęp: 26.09.19r.]. 332 Event tracking in Google Analytics, [dostępny online:] https://developers.google.com/analytics /devguides/collection/analyticsjs/events [dostęp: 27.09.19r.]. Tabela 19. Przegląd danych uzyskiwanych dzięki badaniom site-cetric. Nazwa Opis metody Zalety Wady Hits, trafienia, pobrania Liczba plików ładujących się na stronie internetowej (np. na jednej stronie znajduje się reklama, zdjęcie i wideo, zatem jedno wejście na stronę oznacza pobranie trzech elementów) Dostarcza danych dla programistów, którzy musza dbać o wydajność serwerów Nie informuje o rzeczywistym odbiorze treści, są to bardziej dane techniczne Pageviews (PV), odsłony, Liczba wyświetleń Pojedyncze żądanie wyświetlenia strony wysłane do serwera przez komputer odbiorcy Pokazuje statystycznie liczbę wyświetleń danej strony, liczby są konkretne i wskazują na popularność danej treści331 Nie jest pewne, czy użytkownik zapoznał się z treścią prezentowaną na stronie, możliwość sztucznego zwiększania statystyki poprzez np. stronicowanie czy galerie zdjęć Events, zdarzenia Wszelkie akcje podejmowane przez użytkownika na stronie internetowej niezależnie od liczby kliknięć, które wykonano. Zaliczyć do nich można kliknięcie w reklamę, wypełnienie formularza, skomentowanie artykułu, oglądnięcie materiału wideo, wzięcie udziału w sondzie itp.332 Nie pokazuje liczby prostych klików użytkownika, ale daje możliwość wyśledzenia jego reakcji na prezentowaną treść Statystyki mogą być sztucznie zawyżane przez boty internetowe Unique user, visitor (UU), unikalny użytkownik Adres IP logujący się na stronie (wysyłający żądanie załadowania strony do serwera); liczba UU jest jedną z najczęściej podawanych statystyk w mierzeniu oglądalności stron internetowych Z dużym przybliżeniem pokazuje liczbę rzeczywistych użytkowników strony internetowej lub konkretnego artykułu Ludzie korzystają współcześnie z wielu urządzeń posiadających odmienne adresy IP, stąd statystyka UU jest znacząco zawyżona333 Session, sesja, wizyta Interakcje użytkownika ze stroną w określonym, z góry ustalonym czasie (w standardzie Google Analytics jest to 30 minut) Podział na sesje umożliwia zmianę kampanii reklamowej po jej wygaśnięciu334 Zachowanie użytkowników podczas sesji nie daje pełnego oglądu odbioru strony internetowej, ograniczając go do z góry ustalonego czasu Time spent, czas spędzony na stronie czas, który upłynął od pierwszego logowania adresu IP na serwerze, do ostatniego logowania, lub ostatniego zdarzenia na stronie335 Określa stopień zaangażowania użytkownika na stronie internetowej (czy strona jest interesująca) Nie daje odpowiedzi na pytanie co dzieje się z użytkownikiem między ostatnim żądaniem wysłanym do serwera a opuszczeniem strony336 Bounce rate, współczynnik odrzuceń Liczba pobrań pojedynczej podstrony internetowej podzielona przez sumę odwiedzin zarejestrowanych na całej witrynie337 Wskazuje na liczbę osób, które opuszczają serwis po załadowaniu zaledwie jednej treści Wysoki bounce rate jest normalny dla blogosfery, czy serwisów urzędów, niski bounce rate jest pożądany na stronach wielotematycznych, prezentujących duże ilości treści 333 P. Farris, N. Bendle, P. Pfeifer, D. Reibstein, Marketing Metrics: The Manager's Guide to Measuring Marketing Performance, Wyd. Pearson Education, New Jersey 2016, s. 344. 334 How a web session is defined in Analytics, [dostępny online:] https://support.google.com/ analytics/answer/2731565?hl=en [dostęp 27.09.19r.]. 335 Session duration, [dostępny online:] https://support.google.com/analytics/answer/1006253?hl=en [dostęp: 28.09.19r.]. 336 Lost time in Google Analytics, [dostępny online:] https://help.analyticsedge.com/googleanalytics/ misunderstood-metrics-time-on-page-session-duration [dostęp: 28.09.19r.]. 337 P. Farris, N. Bendle, P. Pfeifer, D. Reibstein, Marketing…, op.cit. s. 349-350. 338 Click map, [dostępny online:] https://yandex.com/support/metrica/behavior/click-map.html [dostęp: 27.09.19r.]. Źródło: opracowanie własne. Przykładem narzędzia wykorzystującego dane site-centric jest clickmap/heatmap, klikmapa. Pokazuje ona w czasie rzeczywistym liczbę kliknięć w poszczególne miejsca strony, także te nie będące linkami338. Wygląd klikmapy zaprezentowano na Ilustracji 17. Podobne narzędzia zwiększają użyteczność stron internetowych, dzięki możliwości zwiększania atrakcyjności treści dla odbiorcy339. W redakcjach mediów internetowych klikmapa może być wykorzystywana m.in. do sprawdzania atrakcyjności nagłówków (tytułów), reklam i innych treści pojawiających się na stronach głównych. 339 K. Choroś, Further tests with click, block, and heat maps applied to website evaluations Computational Collective Intelligence. Technologies and Applications ICCCI 2011. Lecture Notes in Computer Science, P. Jędrzejowicz (red.), Hamburg, Gydnia 2011, s. 417. 340 Traffic source dimensions, [dostępny online:] https://support.google.com/analytics/answer/103 3173?hl=en [dostęp: 27.09.19r.]. 341 Acquisition device, [dostępny online:] https://support.google.com/analytics/answer/3123672?hl=en [dostęp: 27.09.19r.]. 342 About geographical data, [dostępne online:] https://support.google.com/analytics/answer/61604 84?hl=en [dostęp: 28.09.19r.]. 343 C.H. de Vreese, P. Neijens, Measuring media exposure in a changing communications environment, „Communication Methods and Measures”, Vol. 10, 2016, nr 2-3, s. 73-74. Ilustracja 17. Przykładowy wygląd klikmapy. Źródło: YandexMetrica. Pozostałe dane typu site-centric dostarczają informacji o źródłach wizyt340, źródłach pochodzenia ruchu341 (urządzenia mobilne, komputery stacjonarne, rodzaje przeglądarek) oraz lokalizacji użytkowników342 (miejsca, z których użytkownik łączy się z Internetem, jednak bez możliwości zbadania indywidualnego adresu IP). Dane zbierane z poziomu serwerów obarczone są istotnymi wadami. Nie pozwalają na dokładne opisanie struktury demograficznej użytkowników, nie rozróżniają ich płci ani wieku343. Nie są też w stanie odpowiedzieć na pytanie, czy wyświetlana na stronie reklama została w jakikolwiek sposób dostrzeżona przez odbiorcę344. Stąd ich przydatność w analizie marketingowej jest przedmiotem sporów wśród praktyków. Poważną wadą jest również zliczanie wejść na stronę dokonywanych przez boty (roboty internetowe)345,346. 344 P. Anastas, W.R. Breen, Y. Cheng, A. Lieberman, I. Mouline, Methods and apparatus for real user monitoring, [dostępny online:] https://patents.google.com/patent/US7765295B2/en [dostęp: 28.09.19r.]. 345 Boty mogą na przykład atakować serwery danej strony poprzez sztuczne zwiększanie liczby wejść, tak aby przeciążyć serwer i zablokować ładowanie się witryny. 346 C.H. de Vreese, Measuring media…, op. cit.. s. 74. 347 Definicja dostępna na Portalu Europa, Czym są pliki cookie?, [dostępny online:] https://europa.eu/ european-union/abouteuropa/cookies_pl [dostęp 26.09.19r.]. 348 P. Anastas, W.R. Breen, Y. Cheng, A. Lieberman, I. Mouline, Methods… op. cit. s. 76. Kolejną wadą badań site-centric jest opieranie się na plikach cookie. Zgodnie z definicją stworzoną na potrzeby Unii Europejskiej cookie to „mały plik tekstowy, który strona internetowa zapisuje na komputerze lub urządzeniu przenośnym internauty w chwili, gdy ten ją przegląda. Strona ta może w ten sposób zapamiętać na dłużej czynności i preferencje internauty (takie jak nazwa użytkownika, język, rozmiar czcionki i inne opcje). Dzięki temu użytkownik nie musi wpisywać tych samych informacji za każdym razem, gdy powróci na tę stronę lub przejdzie z jednej strony na inną”347. Jedną z funkcji plików cookie jest dostarczanie do serwera danych o wcześniejszej wizycie użytkownika. Gdyby nie to, każdorazowe logowanie na stronę zliczane byłoby jako wizyta nowego użytkownika. Dzięki plikom cookie możliwe jest ograniczenie błędu w zakresie liczby odwiedzin rzeczywistych użytkowników. Jednak usunięcie z przeglądarki zapisanych plików cookie może powodować ponowne zaliczenie w grono „nowych użytkowników” i ostatecznie zniekształcić wyniki pomiarów. Analiza site-centric nie dostarcza również dostatecznej wiedzy na temat odbioru strony, problemów z jej ładowaniem i przeglądaniem na różnych urządzeniach, w tym urządzeniach mobilnych348. Ostatnią poważną wadą badań typu site-centric jest brak możliwości zweryfikowania liczby urządzeń, z których korzysta jeden użytkownik. Współcześnie w krajach wysoko rozwiniętych punktów dostępu do sieci jest wiele: hot-spoty, szybki Internet w telefonach komórkowych, sieć domowa, komputer w pracy i tak dalej. Każdorazowe zalogowanie się na tę samą stronę przez jednego użytkownika w kilku miejscach (domu, pracy, szkole, autobusie), będzie zaliczone przez serwer do kategorii nowego odbiorcy. 4.2. Badania user-centric W badaniach user-centric wyróżnić można trzy podstawowe podejścia metodologiczne: badania z wykorzystaniem metodologii nauk społecznych, badania poprzez ankiety internetowe, badania panelowe oraz badania łączące powyższe kategorie w różnych konfiguracjach. Pierwszą i drugą grupę stanowią badania z zastosowaniem znanych metodologii wykorzystywanych w naukach społecznych (wywiady ankieterskie, ankiety telefoniczne, grupy fokusowe). Magdalena Szpunar zauważa istotną różnicę między badaniami Internetu a badaniami w Internecie349. Badania Internetu dotyczą samego medium i jego użytkowników (user-centric), zaś badania w Internecie są technologicznym środkiem służącym do prowadzenia badań m.in. ankietowych. Badania user-centric mogą być prowadzone drogą ankiet pojawiających się w Internecie a dotyczących np. jakości odwiedzanej witryny. 349 M. Szpunar, Badania Internetu… op.cit., s. 82. 350 Ibidem, s. 83. 351 T. Benski, E. Fisher: Internet and emotions, Wyd. Routledge, Nowy Jork 2014, s. 3-6. 352 K. Karcz, A. Bajdak, Wykorzystanie Internetu w badaniach marketingowych, „Acta Universitatis Lodziensis. Folia Oeconomica”, nr 179, 2004, s. 460. 353 J. Webster, P. Phalen, L Lichty, Ratings analysis…, op.cit. s. 72-76. Podobne badania mogą dostarczyć unikalnej wiedzy na temat odbioru stron internetowych i pozwalają na monitorowanie zachowania użytkowników350. Dzięki temu otrzymujemy dane m.in. o jakości prezentowanych treści, ich rzetelności, zaufania do mediów w Internecie, postrzegania sieci, emocji i wrażeń, które wywołuje dana strona i obecna na niej treść. Należy uznać powyższe badania za istotne narzędzia, kluczowe w kontekście zrozumienia fenomenu kultury partycypacji i badań nad emocjami w sieci351. Trzecią kategorię stanowią badania panelowe (telemetryczne), które opierają się na zainstalowaniu paneli pomiarowych w postaci programów na komputerach wybranych osób, reprezentatywnych dla danej populacji. Programy te zapisują wszelkie aktywności użytkowników, takie jak odwiedziny stron internetowych, czas spędzony na stronie, zainteresowanie poszczególnymi witrynami (także czatami, pocztą elektroniczną, grami on-line352) i przesyłają dane na serwer pomiarowy. Po przetworzeniu danych i ich obróbce statystycznej wysnuwane są wnioski obejmujące konkretne grupy społeczne lub całą populację353. Sposób przeprowadzenia badań user-centric jest podobny do telemetrii wykorzystywanej do analiz oglądalności telewizji354. 354 R. Maryńczak, Telemetria. Pomiar widowni telewizyjnej – podstawa wyceny czasu reklamowego, „Zeszyty Naukowe Akademii Ekonomicznej w Krakowie”, nr 538, 2000, s. 126. 355 T. Żmijewska-Jędrzejczyk, Badania internetowe, P. Sztabiński, Z. Sawiński (red.), „Nowe metody, nowe podejścia badawcze w naukach społecznych”, Warszawa 2004, s. 245. 356 M.R. Endsley, D. Jones, Designing for situation awareness: an approach to user-centered design, Wyd. CRC Press, Boca Raton 2016, s. 5 i 48. 357 C. Baladron, J. Aguiar, B. Carro, L.W. Goix, A.L. Martin, P. Falcarin, J. Sienel,User-centric future internet and telecommunication services, G. Tselentis (red.), „Towards the future Internet: a european research perspective”, Wyd. Ios Press, Amsterdam 2009, s. 218. 358 M.P. Couper A. Kapteyn, M. Schonlau, J. Winter, Noncoverage and nonresponse in an Internet survey. „Social Science Research”, Vol. 36 (2007), nr 1, s. 143-144. Dzięki badaniom panelowym w sieci można pozyskać informacje na temat struktury społeczno-demograficznej odbiorców (wiek, płeć, wykształcenie, miejsce zamieszkania oraz inne dane wskazujące na konkretną grupę docelową)355. Metoda ta daje też pogląd na statystyczny ruch oraz sposób nawigacji między witrynami przez osoby objęte badaniem. Mica R. Endsley i Debra Jones proponują całkowite zwrócenie się w stronę badań i projektowania komunikacji ukierunkowanych na użytkownika. Jako główny powód takiego nastawienia wskazują na nadmiar informacji pojawiających się w świecie i konieczność ich skutecznej selekcji m.in. w oparciu o dane user-centric356. Także inni autorzy wiążą przyszłość Internetu z rozwojem badań, usług i stron stawiających użytkownika w centrum aktywności. Przewiduje się m.in. powstanie profesjonalnych serwisów internetowych pozwalających na programowanie najróżniejszych aplikacji osobom bez wykształcenia informatycznego357, co wpisuje się w omawiany wcześniej kontekst humanistyki cyfrowej i sieci semantycznej. Podstawową wadą metodologii user-centric jest to, że badania opierają się na próbie i nie obejmują ogółu populacji, nie zapewniają też dostatecznej wiedzy na temat wszystkich użytkowników w sieci, ponieważ mogą być one „zniekształcane” poprzez zmiany struktury populacji, zmiany w sposobie korzystania z sieci przez różnych użytkowników, szybki rozwój nowych technologii i ich nierównomierną adaptację w społeczeństwie. Z kolei duża fragmentaryzacja sieci powoduje, że panele badawcze nigdy nie obejmą audytem wszystkich stron internetowych, które mogą być nawet bardzo popularne wśród jednej, grupy odbiorców zainteresowanych daną tematyką (np. fanów książki, serialu, gry). Warto zaznaczyć, że nie mówię tutaj o błędzie pokrycia charakterystycznym dla badań w Internecie358, ale o niereprezentatywności grupy badawczej. Błędne wyniki mogą być również spowodowane nieuwzględnianiem w badaniach gospodarstw domowych, które nie mają dostępu do Internetu. Naukowcy z Niemiec Annelies Blom, Christina Gathmann i Ulrich Krieger zaproponowali dwustopniowy model doboru próby do internetowego panelu badawczego, obejmujący całą populację Niemiec w wieku 16-75 lat359. 359 A. Blom, C. Gathmann, U. Krieger, Setting up an online panel representative of the general Ppopulation: the german internet panel, „Field Methods”, Vol. 27 (2015), nr 4, s. 392. 360 M. Szpunar, Badania Internetu…, op. cit. s. 85. 361 Opis metodologii Gemius Audience, [dostępny online:] https://audience.gemius.com/pl/metodologia /opis/ [dostęp 26.09.19r.]. Ze względu na konieczność selektywnego i dokładnego doboru próby badawczej oraz jej ciągłej weryfikacji i aktualizacji (koszty utrzymania panelistów), badania panelowe w Internecie są droższe, niż badania typu site-centric360. Pracownie badawcze próbują niwelować błędy poprzez wprowadzenie kategorii real users (realni użytkownicy). Ich liczbę uzyskuje się poprzez stosowanie odpowiednich algorytmów i krzyżowanie wyników badań site-centric z user-centric361. Choć uzyskane dzięki temu wyniki są coraz dokładniejsze, to wciąż nie opracowano metodologii, która rozwiązałaby omawiane problemy. Schemat przedstawiający sposób badania użytkowników przez PBI Gemius zaprezentowano na Ilustracji 18. Ilustracja 18. Schemat przedstawiający metodologię badań PBI Gemius methodology_725.png Źródło: Gemius PBI. Wciąż poszukiwane są nowe drogi dla analityki typu user-centric. Na Zachodzie rejestrowane są nowe patenty zarówno z obszaru site-centric362, jak i user-centric363, które mają pomóc w zwiększaniu użyteczności stron internetowych dla twórców witryn i ich finalnych odbiorców. 362 M. Cordasco, Visualization of website analytics, Patent International Business Machines Corp (IBM), Nowy Jork 2015. 363 P.J. Sadler, User-centric, user-weighted method and apparatus for improving relevance and analysis of information sharing and searching, Patent uAffect org LLC, 2012. 364 M. Noske, Kształtowanie się społeczeństwa wirtualnego, „Edukacja Medialna”, nr 4, 2003, s. 20. Metodologiczny arsenał przydatny we współczesnej analityce Internetu uzupełniają m.in. badania grup docelowych (prowadzone metodami znanymi wcześniej jak np. PAPI/CATI/CAWI, grupy fokusowe on-line i off-line, modelowanie ścieżek dyfuzji treści, eye-tracikng i customers journey (modelowanie sposobów poruszania się użytkowników po stronach internetowych), targetowanie marketingowe oraz optymalizacja reklam (m.in. w oparciu o dane zapisywane w plikach cookie - Data Management Platforms), analizę trendów w sieci (np. Google Trends), dyfuzję treści w social mediach i analitykę zasięgów postów (np. Sotrender), porównywanie odbioru różnych wersji stron w czasie rzeczywistym, analizę ruchu na urządzeniach mobilnych (mobile trends), komunikatów wysyłanych bezpośrednio do odbiorcy (newsletter, push), analizę wpływu rynkowych i społecznych liderów opinii na dyfuzję treści (społeczny dowód słuszności), optymalizacja witryny na potrzeby wyszukiwarek (SEO), kreowanie społeczności i emocji oraz badania krzyżujące wszystkie powyższe podejścia. Badania crossowe prowadzą ostatecznie do tworzenia coraz doskonalszych algorytmów, które automatycznie optymalizują stronę zgodnie z potrzebami zindywidualizowanego klienta. 4.4. Badania content-centric Trzecie podejście metodologiczne, które można zastosować w badaniach nad Internetem opisuje zawartość przekazów. Wydaje się, że szczególnie w świecie Internetu badania content-centric są mało rozpowszechnione, mimo iż mogą pomóc w zrozumieniu fenomenu dyfuzji, kultury partycypacji, czy kształtowania się społeczności wirtualnych364. Pierwsze wyzwanie jakie stoi przed osobami, które chcą podjąć się podobnych badań dotyczy kategoryzacji tematycznej poszczególnych stron internetowych, lub ich części. Do takiego opisu można zastosować kryteria wprowadzone przez Walerego Pisarka. Dzieli on prasę ze względu na jej funkcje: informacyjną, poznawczą, estetyczną, ludyczną (rozrywkową), perswazyjną (którą w dużym uproszczeniu współcześnie można utożsamić z funkcją reklamową), edukacyjno-pedagogiczną i poradnikową365. Wydaje się, że większość istniejących stron internetowych można zaklasyfikować odwołując się do powyższych funkcji. Wyzwanie mogą stanowić serwisy społecznościowe jak YouTube czy Facebook, które stanowią platformy do udostępniania treści przez inne media lub użytkowników oraz do komunikacji i są określane mianem metamedium366. Uzupełnienie funkcji zaproponowanych przez Walerego Pisarka dla prasy o funkcję metamedialną i funkcję komunikacyjną wydaje się wyczerpywać katalog tematyczny oferowany na współczesnych stronach internetowych. Przykład wykorzystania teorii Walerego Pisarka w praktyce analizy stron internetowych prezentuje Tabela 20. 365 W. Pisarek (red.), Słownik terminologii medialnej, Wyd. Universitas, Kraków 2006, s. 63. 366 M. Szpunar, Nowe-stare… op.cit., s. 11. 367 Sklep Play jest przykładowym programem umożliwiającym zakup i instalację aplikacji na urządzenia mobilne (telefony, tablety). Tabela 20. Podział stron i aplikacji internetowych ze względu na ich funkcje. INFORMA POZNAWCZA ESTETYCZNA LUDYCZNA REKLAMOWA EDUKACYJNA PORADNIKOWA METAMEDIALNA Google X X X X Facebook X X X X YouTube X X X X X Snapchat X X X X Sklep Play367 X X X Onet X X X X X X X Blog.pl X X X X X X X X Secondlife.com X X X X Skype X X BIP.gov.PL X X X X UJ.edu.pl X X X X Źródło: opracowanie własne. Już pobieżna analiza danych zawartych w Tabeli 18. pozwala na wysnucie wniosków, które mogą stanowić hipotezy do pogłębionych badań. Znaczna większość stron internetowych umożliwia użytkownikom rozrywkę. Istnieją również portale, które dają odbiorcom bardzo szeroki zestaw funkcji. Z kolei inne strony i aplikacje służą jedynie komunikowaniu. Jedyną funkcją wspólną dla wszystkich stron WWW jest funkcja reklamowa. Duże znaczenie w Internecie ma układ graficzny strony, jej estetyka, funkcjonalność i łatwość poruszania się po niej368. Te zagadnienia nie zostały do tej pory należycie opisane i zbadane, co stanowi istotną lukę we współczesnej wiedzy z zakresu mediów i komunikowania masowego. Odpowiedzią na powyższe wzywanie może być systematyczny przeglądy zawartości stron internetowych pod kątem liczby użytych wyrazów (głosek, liter, fonemów), ich złożoności i trudności, liczby hiperłączy, liczby grafik, procentowego udziału grafik w treści strony, liczby reklam i ich procentowego udziału na stronie. 368 J. Mikosz, P. Fąka, Specyfika stron prasy elektronicznej E. Pleszkun-Olejniczakowa, J. Bachura, M. Worsowicz (red.), O Mediach i komunikacji, Wyd. Uniwersytetu Łódzkiego, Łódź 2010, s. 249. 369 P. Dubiel, Metody i techniki badawcze w prasoznawstwie red. M. Kafel „Prasoznawstwo”, Warszawa 1969, PWN, s. 10. Zebranie powyższych danych umożliwiłoby przeprowadzenie badań porównawczych zawartości witryn internetowych przy podziale na poszczególne kategorie tematyczne. W dalszej perspektywie pogłębiona analiza jakościowa może dać odpowiedź na pytanie o poziom prezentowanych treści na różnych witrynach WWW. Dla przykładu wydaje się, że w portalu podróżniczym więcej miejsca powinny zajmować elementy graficzne i zdjęcia, z kolei w portalu horyzontalnym treści powinny być głównie tekstowe. Powyższych hipotez nie uda się potwierdzić, bez systematycznej analizy zawartości treści stron internetowych. Analiza zawartości stron internetowych wymaga podejścia wielowymiarowego. Już w 1969 roku Paweł Dubiel wymieniał trzy warstwy badań nad mediami: techniczną, treściową oraz sensualną369. Rozróżnienie to pozostaje aktualne także w świecie Internetu. Badania techniczne w ówczesnym znaczeniu sprowadzały się m.in. do zagadnień jakości użytego papieru i tuszu gazetowego. W świecie mediów elektronicznych możemy mówić o szybkości ładowania strony (funkcja zależna od jakości serwerów), rozmiarze (liczonym w pixelach lub centymetrach), wielkości i kolorze nagłówków, liczbie materiałów graficznych oraz reklam i ich procentowym udziale w powierzchni stron. Dubiel wskazuje także na potrzebę analizy zawartości pod kątem nie tylko tego co się komunikuje, ale też tego skąd pochodzą materiały370. Taka analiza jest również możliwa, gdyż współcześnie wydawcy internetowi zgodnie z wymogami zawartymi w ustawie „Prawo prasowe” (Dz.U. z 1984 r. Nr 5 poz. 24 ze zm.) mają obowiązek podawania źródła pochodzenia pierwotnej wiadomości. Do współczesnych źródeł, które odnaleźć można na stronach internetowych zaliczyć możemy: źródła własne (zdjęcia, przeróbki zdjęć, własne teksty publikowane w portalach społecznościowych), opracowania materiałów dostępnych w sieci, gazetach papierowych i książkach, tłumaczenia treści z zagranicznych źródeł, czy agencje informacyjne. Istotną przesłanką badawczą wskazywaną przez Dubiela jest również to, kiedy komunikat pojawia się w mediach371 (na stronie WWW). Dalsze badania porównawcze portali internetowych mogą dać odpowiedź na pytanie o szybkość reakcji dziennikarzy i redaktorów na pojawiające się w sieci tematy. Uniwersalne klucze kategoryzacyjne przedstawione w latach 60-tych mogą zostać przy niewielkich modyfikacjach wykorzystane współcześnie przy analizie zawartości portali horyzontalnych i szerzej – także pozostałych stron internetowych. 370 Ibidem, s. 48. 371 Ibidem, s. 78-101. 372 W. Kajtoch, Słownictwo a analiza zawartości prasy, J. Fras (red.), „Studia nad mediami i komunikowaniem masowym. Prawo – język – tekst”, Wyd. Adam Pruszyński, Toruń 2007, s. 105. 373 K. Polański (red.), Encyklopedia językoznawstwa ogólnego, Wyd. Ossolineum, Wrocław 1999, s. 508. 374 W. Pisarek, Nowa retoryka dziennikarska, Wyd. Universitas, Kraków 2011, s. 294. Kolejny aspekt badań nad treścią stanowi analiza zawartości. Wojciech Kajtoch wylicza główne metody stosowanych w tej dziedzinie372. Należą do nich: • statystyka językoznawcza, czyli „kompleksowe badania nad językiem przy wykorzystaniu metod statystycznych”373. Metoda umożliwia badanie stosunkowo łatwo policzalnych jednostek formalnych (słów, liter), oraz analizę występowania słów kluczowych; • badania stylistyczne obejmujące ustalanie cech językowych publikowanych treści (części mowy i zdania); • badania zrozumiałości języka w tekście na podstawie zmierzenia procentu wyrazów trudnych (dłuższych niż czterosylabowe) oraz stopnia trudności składni (przeciętnej długości zdania)374; • ustalanie słownictwa tematycznego, czyli słów najczęściej występujących w danej sekcji tematycznej (np. wiadomości, sport, muzyka); • badania słów-kluczy charakterystycznych dla danego periodyku; • korpusologia bazująca na dużych zestawach tekstów; • zliczanie nazw własnych np. nazwisk polityków; • koncepcja słów sztandarowych prof. Walerego Pisarka, czyli wyrażeń, które przenoszą znaczne wartości emocjonalne, denotacyjne oraz konotacyjne375. 375 W. Pisarek, Polskie słowa sztandarowe i ich publiczność, Wyd. Universitas, Kraków 2003, s. 195. 376 R. Debray, Wprowadzenie do mediologii, Wyd. Oficyna Naukowa, Warszawa 2010, s. 151. Klasyczne opisy badań przy wykorzystaniu powyższych metodologii obejmują następujące po sobie fazy: najpierw należy dokonać wyboru problematyki, postawić hipotezę badawczą, dobrać próbę i definicje kategorii, dokonać jej zakodowania, następnie przejść do obliczeń i na końcu do interpretacji. Wydaje się, że wszystkie powyższe metodologie, obejmujące analizę treści i analizę zawartości prasy można zastosować do publikacji w formie elektronicznej. W zależności od postawionych hipotez i celu badań ustalenie odpowiedniego klucza kategoryzacyjnego i zliczanie pojawiających się słów w sieci jest technicznie możliwe. Wydaje się natomiast, że zmianie powinna ulec sama praktyka badań. W klasycznej analizie zawartości prasy badane były nagłówki, jak i sama treść na określonej próbie badawczej. Wiązało się to z koniecznością odpowiedniego doboru próby, tworzenia dużych korpusów badawczych i ich żmudnej, ręcznej analizy. W dobie Internetu badanie może być wykonywane w sposób ciągły lub okresowy. Badania obejmowałyby też wszystkie treści pojawiające się na stronach WWW w danym czasie. Odpowiedni program komputerowy do analizy powinien zapisywać wyniki w formatach umożliwiających ich zapis jako big data. Rolą badacza w takim wypadku, byłoby zaprogramowanie odpowiedniego klucza kategoryzacyjnego oraz końcowa analiza wyników badań. Słuszny w tym kontekście wydaje się postulat humanistyki cyfrowej, aby łączyć pracę informatyków i medioznawców. Regis Debray wskazuje, że media można badać albo jako techniczne środki obiegu, albo jako kulturowe agendy obiegu376. Do pierwszych zalicza: nośnik (jako miejsce, w którym pojawia się przekaz - np. ekran komputera, papier), środek (służący do przekazania informacji np. alfabet, język, zdjęcie, grafika, infografika, wykres, relacje live, materiał wideo), sieć (jako sposób przenoszenia np. radiowa, cyfrowa). Powyższe trzy obszary analizy można ująć obiektywnie, a badania wykonać w sposób mierzalny, statystyczny. Jednocześnie autor podnosi, że dla pełnego zrozumienia mediów konieczne jest równoczesne badanie agend obiegu do których zalicza: środowisko kulturalne przenoszące (np. kultura zachodnioeuropejska, kultura partycypacji), ciało zbiorowe przewodzące (instytucja nadawcza np. konkretny portal internetowy, biuro prasowe), kod pojęciowy (czyli tryby wewnętrznej konfiguracji przekazu). Agendy obiegu są więc w tym ujęciu przekazami w znaczeniu etniczno-kulturowym377. Badania techniczne, jak i kulturowe wzajemnie się uzupełniają i wspomagają. 377 Ibidem, s. 153. 378 D. Mersch, Teorie Mediów, tłum. Krauss E., Wyd. Sic!, Warszawa 2010, s. 217. By dobrze zrozumieć współczesny rynek wydawnictw elektronicznych warto również być świadomym korelacji, jaka zachodzi między techniką a językiem mediów. Jak zauważa Dieter Merch „technika i język za sprawą językowego modelowania techniki i technicznego modelowania języka przeszły w siebie nawzajem znajdując swoje dopełnienie w medium komputera”378. Język mediów zmienia się dzięki technice, która z kolei dostosowuje się do nowych form komunikacji w Internecie. Ten proces wydaje się przebiegać coraz szybciej i jak dotąd brakuje skutecznych internetowych narzędzi, które pomogłyby analizować zachodzące w nim zmiany. W Tabeli 21. przedstawiam krótką typologię głównych podejść badawczych, stosowanych we współczesnej analityce Internetu. Tabela 21. Charakterystyka trzech podejść badawczych w analityce Internetu. Site User Content Nadawca Możliwość rozróżnienia czy nadawcą był pracownik firmy, czy osoba z zewnątrz (bot) Możliwość zweryfikowania zaufania do nadawców/autorów Możliwość zweryfikowania konkretnego źródła/autora, badanie funkcji i celów nadawców Treść Liczba zdarzeń, „waga” strony, błędy na stronie, powroty na stronę. Określenie statystycznego poziomu zainteresowania treścią wśród odbiorców Dokładne określenie cech i funkcji komunikatu, modelowanie na ich podstawie cech nadawców Odbiorca Liczba PV, UU, bounce rate, czas spędzony na stronie, liczba sesji, uśredninie powyższych danych Lokalizacja odbiorców, dane społeczno- demograficzne, śledzenie ścieżek po których poruszają się internauci, dane na temat popularności dużych stron internetowych Badanie perswazyjnego charakteru komunikatów, rozpoznawanie funkcji i cech komunikatów dostosowane do charakteru odbiorcy Wady Brak danych demograficznych, trudność w odróżnieniu botów od użytkowników, konieczność wprowadzania kategorii RU Brak pełnej reprezentatywności, wysoki koszt badań, dokładne dane dotyczące tylko dużych stron Brak oprogramowania, ogromna liczba publikowanych treści, konieczność oddzielnego badania komunikatów od nadawców profesjonalnych i nieprofesjonalnych Źródło: opracowanie własne. Na koniec warto również wspomnieć o badaniach medioznawczych dotyczących twórcy treści. Wydaje się, że współcześnie katalog nadawców w Internecie należy rozszerzyć i zaliczyć do niego: każdego użytkownika wytwarzającego i publikującego treści za pośrednictwem sieci379, profesjonalnego dziennikarza, redaktora oraz informatyka tworzącego kod strony, czy informatyka tworzącego bota, który z kolei automatycznie generuje treści. Zagadnienia te wymagają połączenia wiedzy technicznej z zakresu stosowanych algorytmów380 oraz wiedzy humanistycznej i wciąż czekają na naukowców, którzy podejmą się ich opisu. 379 E. Popek, Understandig the world of user generated content, Wyd. Rosen Central, Nowy Jork 2011, s. 8. 380 J. Kreft, Algorithm as demiurge. a fundamental myth of new media, R. Batko (red.), Strategic imperatives and core competencies in the era of robotics and artificial intelligence, Wyd. Hershey IGI Global, 2016, s. 146. 4.4. Badania nad dyfuzją Jak wykazałem wcześniej sieci społecznościowe oraz postulowany rozwój Internetu trzeciej generacji, zmienia optykę rozważań nad dyfuzją treści w sieci. Nowe kanały dyfuzji zwiększają szybkość rozprzestrzeniania się komunikatu i pozwalają odbiorcom na dostrzeżenie większej liczby różnych punktów widzenia381. O dużym znaczeniu badań nad dyfuzją treści w sieci świadczy fakt, że mogą one zostać wykorzystane do optymalizacji sposobów śledzenia interesujących nas wiadomości (np. na temat odbywających się wyborów lub ważnych dla świata wydarzeń), wykrywania zagrożeń i rozwiązywania problemów (np. przechwytywanie informacji o planowanych przestępstwach, udzielanie pomocy w przypadku klęsk żywiołowych, zapobieganie uzależnieniom od Internetu), zwiększenia efektywności kampanii marketingowych w sieci382. 381 E. Bakshy, I. Rosenn, C. Marlow, L. Adamic. The role of social networks in information diffusion, „WWW ’12”, 2012, s. 519–528. 382 A. Guille, H. Hacid, C. Favre, D.A. Zighed, Information… op. cit. s. 1. 383 Statista.com, Facebook: number of monthly active users worldwide 2008-2017, [dostępny online:] https://www.statista.com/statistics/264810/number-of-monthly-active-facebook- users-worldwide/ [dostęp: 21.09.19r.]. 384 M. Cataldi, L. Di Caro, C. Schifanella. Emerging topic detection on Twitter based on temporal and social terms evaluation, MDMKDD ’10, 2010, s. 4-5. 385 J. Makkonen, H. Ahonen-Myka, and M. Salmenkivi. Simple semantics in topic detection and tracking. Information Retrieval Journal, nr 7(3-4), 2004 s. 347–368, 386 L. Drabik, E. Sobol, Słownik języka polskiego, PWN, Warszawa 2007. W badaniach nad dyfuzją informacji kluczowe wydają się trzy zagadnienia. Po pierwsze - jakie informacje rozprzestrzeniają się najszybciej w sieci i wywołują największą liczbę reakcji (ujęcie przedmiotowe). Po drugie - jakimi kanałami komunikacyjnymi rozprzestrzenia się informacja (ujęcie procesu). Po trzecie - które media lub liderzy opinii wpływają na dyfuzję informacji (ujęcie podmiotowe). W ujęciu przedmiotowym duże znaczenie odgrywa sposób prezentacji publikowanej treści. Na najpopularniejszym portalu społecznościowym Facebook383 z notatki można odczytać czas publikacji, osobę która zamieściła wpis, treść wiadomości (link, zdjęcie, tekst etc.), osoby oznaczone w wiadomości (np. widoczne na zdjęciach, lub takie, od których autor spodziewa się reakcji) oraz hasztagi (tematy dodawane przez użytkowników, tematyczne hasła pozwalające na odnalezienie podobnych kategorii w sieci)384. Autorzy zwracają uwagę, że tematy i hasztagi stają się coraz popularniejszą formą dyfuzji interesujących dla odbiorców informacji385. Dla ujęcia przedmiotowego ważne są także tematy przyciągające aktualnie uwagę użytkowników Internetu. Chodzi o opisane wcześniej trendy w wyszukiwarkach. Warto zauważyć, że według „Słownika języka polskiego” trend to „istniejący w danym momencie kierunek rozwoju w jakiejś dziedzinie”, lub coś „modnego, na czasie”386. Ważnym aspektem badań nad tematami trendującymi jest czas. Im mniejszy jego wycinek wybierzemy do badań, tym większe prawdopodobieństwo odnalezienia trendów o mniejszym zasięgu. Z kolei badania długich okresów pozwalają na uchwycenie trendów, które angażują daną społeczność w dłuższej perspektywie. David Shamma, Lyndon Kennedy i Elisabeth Churchill zaproponowali prosty model matematyczny, pozwalający na wykazanie różnic pomiędzy materiałami trendującymi w danym czasie387. Równanie wygląda następująco: 387 D. A. Shamma, L. Kennedy, and E. F. Churchill, Peaks and persistence: modeling the shape of microblog conversations, „CSCW ’11”, 2011, s. 355–358. 388 K. Saito, K. Ohara, Y. Yamagishi, M. Kimura, H. Motoda, Learning diffusion probability based on node attributes in social networks, „International Symposium on Methodologies for Intelligent Systems. ISMIS ’11”, Warszawa 2011, s. 153-162. 𝑛𝑡𝑓(𝑡𝑖)=tf(ti)cf(t) Gdzie: tf(ti) – częstotliwość występowania tematu t w czasie i cf(t) – częstotliwość występowania tematu t w całym strumieniu wiadomości Używając powyższego równania można porównywać „siłę” tematów trendujących w danym czasie. Model ten pomocny jest jedynie przy badaniu treści pisanych. Czasem też trendy występują w różnych formach w tym samym czasie. Model ten nie sprawdziłby się więc w przypadku zdjęć i innych zasobów dostępnych w sieci, a będących materiałami trendującymi. Innym sposobem badań nad dyfuzją jest zastosowanie pojęcia rozprzestrzeniania kaskadowego, zakładającego istnienie pewnej statycznej struktury dyfuzji informacji. Można je przedstawić jako kierunkowy schemat, którego początkowym punktem jest pierwsza wiadomość (zasób), wywołująca dalszą dyfuzję. Tak narysowany wykres (drzewko) pozwala uchwycić wpływ, jaki użytkownicy wywierają na siebie (kto komu przekazał wiadomość, do kogo ona nie dotarła ze względu na nieaktywność danego użytkownika). Zgodnie z powyższymi założeniami dyfuzję można badać na wielu poziomach z uwzględnieniem dwóch podejść umiejscawiających w centrum nadawców (prawdopodobieństwo dyfuzji na każdym poziomie) lub odbiorców (stopień społecznego wpływu na każdym poziomie). Powstały również modele łączące oba te podejścia388. W celu zbadania w jaki sposób rozprzestrzeniają się informacje stworzono program NETINF. Pozwala on na śledzenie tego, która strona internetowa kopiowała informację, skąd ona pochodziła i w jakim działo się to czasie. Dzięki programowi można również wskazać centra informacyjne, określić ich wpływ na pozostałe strony oraz budować mapy powiązań389. Przykładową mapę wygenerowaną dzięki programowi zaprezentowano na Ilustracji 19. 389 M. Gomez-Rodriguez, J. Leskovec, A. Krause. Inferring Networks of Diffusion and Influence. „The 16th ACM SIGKDD Conference on Knowledge Discovery and Data Mining” (KDD), Waszyngton 2010, s. 1120. 390 Ibidem, s. 1121. Ilustracja 19. Przykładowa mapa dyfuzji wygenerowana dzięki programowi NETINF. Źródło: Uniwersytet Stanforda. Powyższa ilustracja uświadamia, w jaki sposób w sieci mogą rozprzestrzeniać się idee, innowacje, informacje czy wirusy. Autorzy programu NETINF wskazują na dwa podstawowe wyzwania związane z badaniem dyfuzji w sieci. Po pierwsze, aby móc śledzić dyfuzję należy wskazać treść, która aktualnie stanowi trend w sieci. Drugie wzywanie stanowi fakt, że w znaczącej części nie jesteśmy w stanie określić źródła, z którego pochodzi treść podlegając procesom dyfuzji. Spowodowane jest to faktem, że wiele stron internetowych czy użytkowników, przekazując informację dalej, wpływając tym samym na siłę trendu, nie powołuje się na źródło, z którego dowiedziało się o sprawie390. Podobne wizualizacje przedstawili w 2015 roku inżynierowie i pracownicy portalu BuzzFeed391. W swoim artykule opisali metodę POUND, z jęz. ang. „Proces Dla Optymalizacji i Zrozumienia Dyfuzji w Internecie”, w której do jednego popularnego artykułu dopisano kod śledzący jego dalsze udostępnianie w Internecie. Dzięki temu otrzymano trójwymiarowy obraz dyfuzji pojedynczego zasobu pośród wszystkich internautów i stron przekazujących go dalej. Efekt ich pracy przedstawia Ilustracja 20. Niestety konkretne wyniki i zastosowana metodologia nie została opisana jak dotąd w żadnym czasopiśmie naukowym. 391 D. Ngyuen, Andrew Kelleher, Adam Kelleher: Introducing Pound: Process for Optimizing and Understanding Network Diffusion, [dostępny online:] https://www.buzzfeed.com/daozers/introducing-pound-process-for-optimizing-and- understanding-n#.va4lg8N4Qz [dostęp: 21.08.19r.]. Ilustracja 20. Wizualizacja mapy dyfuzji jednego artykułów portalu Buzzfeed. Źródło: BuzzFeed. Poprzednio opisane modele wyjaśniają, gdzie i kiedy pojawiła się informacja, jednak nie dają dostatecznej odpowiedzi na pytania o to, jak i dlaczego wiadomość się rozprzestrzeniła. Naukowcy stworzyli więc modele wyjaśniające i predykcyjne. Model wyjaśniający zaproponowali Manuel Gomez-Rodriguez, Jure Leskovec i Andreas Krause. W celu opisania kaskadowej struktury rozchodzenia się informacji, autorzy wskazali na zależność między czasem dostarczenia treści do użytkowników (aktywacja) a szacowanym prawdopodobieństwem przekazania informacji innym, przy założeniu, że każdy oddziałuje na grono swoich odbiorców niezależnie392. Okazuje się, że prawdopodobieństwo, że jeden użytkownik przekazał informację drugiemu, maleje wraz z czasem jego aktywacji. Innymi słowy, im dłużej użytkownik zastanawia się nad samą treścią, tym bardziej prawdopodobne, że nie przekaże jej dalej. Teoria ta, była później rozszerzana m.in. o prawdopodobieństwo aktywacji użytkownika przez inne źródło, czy szacowany czas transmisji między poszczególnymi użytkownikami. 392 M. Gomez, Rodriguez, J. Leskovec, A. Krause, Inferring…, op.cit. s. 1125. 393 R. Dawkins, Samolubny gen, Wyd. Prószyński i S-ka, Warszawa 1996, s. 265. 394 W. Borkowski, Memy – reinterpretacja systemowa, „Teksty z Ulicy. Zeszyt memetyczny” nr 17, 2016, s. 48. 395 P. Łaszczyna, Memy w pamięci: jak wyśledzić memy w mózgu, „Teksty z Ulicy. Zesszyt memetyczny”, nr 18, 2017, s. 20. W zrozumieniu dyfuzji treści w Internecie pomocne mogą być badania nad memetyką, która porównuje złożone relacje społeczno-kulturowe do odkryć z dziedziny biologii. Twórca pojęcia memu Richard Dawkins opisuje go jako pewną ideę kulturową, która rozprzestrzenia się w społeczeństwie za pomocą naśladownictwa393, takich jak na przykład muzyka, czy moda. Wojciech Borkowski uważa, że mem należy rozumieć jako najmniejszą jednostkę informacji kulturowej, która przenoszona w mózgu lub na innych nośnikach może ewoluować, powielać się poprzez naśladownictwo czy mutować394. Badania nad replikacją memów kulturowych mogą z powodzeniem być zastosowane do dyfuzji treści w mediach. Piotr Łaszczyna wymienia warunki transmisji i propagacji memu, do których zalicza m.in. spójność wewnętrzną i zgodność z systemem przekonań, nowość i jej atrakcyjność, prostotę przyswojenia i zapamiętania, użyteczność, wyrazistość, niezależność od nadawcy i kontekstu, zaraźliwość, zgodność z przekonaniami grupy (konformizm), użyteczność grupowa395. Wydaje się, że warunki replikacji memów można rozwinąć i przy nieznacznych modyfikacjach wykorzystać w kontekście dyfuzji treści. Zestawienie takie prezentuje Tabela 22. Tabela 22. Warunki propagacji memów kulturowych w kontekście dyfuzji treści w Internecie. Warunki propagacji memu Warunki dyfuzji treści w sieci Spójność wewnętrzna Treść nie powinna być chaotycznym zbiorem danych, nieuporządkowanych znaków, przypadkowych liczb; musi być rozumiana przez innych odbiorców Zgodność z systemem przekonań prosumenta i grupy Szansa na dyfuzję treści wzrasta w sytuacji, gdy jest ona zgodna z systemem przekonań prosumenta i grupy do której kierowany jest przekaz. Możliwość dyfuzji wzrośnie również w sytuacji, gdy treść można wykorzystać do negacji przekonań grupy, z którą prosument się nie utożsamia Nowość i jej atrakcyjność Dyfuzji podlegają przede wszystkim informacje nowe, wcześniej niespotykane i aktualne; istnieją jednak wyjątki od tej zasady, bo dyfuzji mogą też podlegać tematy powtarzające się cyklicznie, lub zupełnie zapomniane, ale „odkryte na nowo” w przestrzeni Internetu np. odkrycia przekazujące treści sprzed wielu lat Prostota treści i relacji Dyfuzja w dużej mierze opiera się na prostych komunikatach (hasztagi, tematy trendujące), z zastrzeżeniem, że możliwe jest rozprzestrzenienie się większej liczby treści dotyczących konkretnego tematu, który budzi zainteresowanie odbiorców (rozwinięcie interesującego tematu może nastąpić zarówno przez działania redakcji tworzących treści powiązane ze sprawą, jak i samych internautów nawiązujących do wydarzenia np. poprzez tworzenie komentarzy) Użyteczność indywidualna Gdy prosumenci mogą osiągnąć osobistą korzyść przekazując treść dalej, wzrośnie prawdopodobieństwo jej dyfuzji. Taką korzyścią może być np. wzrost prestiżu w grupie Wyrazistość memu Im treść jest bardziej wyrazista (głośna, wielka, budzące społeczne emocje), tym większe korzyści może osiągnąć prosument biorący udział w jej dalszej dyfuzji Ekspresyjność – łatwość wyrażania Na dyfuzję treści wpływają użyte kody. Gdy treść jest niezrozumiała z powodu użytego języka (obecnego, specjalistycznego) maleją szansę na jej dyfuzję. Analogicznie szansę na dyfuzję wzrosną w sytuacji użycia prostego języka, rozumianego przez społeczność Niezależność od nadawcy i kontekstu Internet rozumiany jako środowisko wolnościowe oraz udostępniane w nim narzędzia (głownie media społecznościowe) są dobrym miejscem do dyfuzji, ponieważ pozwalają na przekazywanie i komentowanie treści bez ingerencji pierwotnego nadawcy i niezależnie od kontekstu Zaraźliwość Większe szanse na dyfuzję mają treści, które wywołują emocje, prowokują prosumentów do myślenia i poszukiwania adekwatnych odpowiedzi Źródło: opracowanie własne na podstawie P. Łaszczyna, „Memy w pamięci: jak wyśledzić memy w mózgu”. Memetyka dostarcza również odpowiedzi na pytanie, na jakich poziomach może przebiegać dyfuzja. W klasycznym ujęciu naukowcy mówią o transferze pionowym, czyli przekazywaniu treści od dziadków i rodziców do dzieci, transferze poziomym, czyli przekazywaniu treści między rówieśnikami z różnych grup społecznych oraz transferze ukośnym czyli przekazywaniu treści w ujęciu międzypokoleniowym396. Pisała o tym Margaret Mead pisząc o kulturze postfiguratywnej kofiguratywnej i prefiguratywnej. Transfer ukośny był analizowany w odniesieniu głównie do szkół, jednak współcześnie ma on miejsce przede wszystkim w Internecie. Aby doszło do replikacji memu powinny zaistnieć cztery czynniki: asymilacja, retencja, ekspresja i transmisja397. Z perspektywy dyfuzji treści w sieci asymilacja oznaczać będzie dekodowanie i ewentualne dalsze przekodowanie treści. Retencja będzie rozumiana jako internalizacja, utożsamienie się z przekazem oraz jego wartościowanie, ekspresja będzie zapośredniczoną komputerowo czynnością (tworzenie, kopiowanie, komentowanie, przeróbka) prowadzącą do przekazania treści innym użytkownikom, zaś transmisja będzie procesem odbierania i dekodowania treści przez innych użytkowników (także instytucjonalnych) za pośrednictwem ich urządzeń technologicznych (algorytmów). 396 P. Łaszczyna, Memy…, op. cit., s. 21. 397 F. Heylighen, What makes a meme successful? Selection criteria for cultural evolution. „Proc. 16th Int. Congress on Cybernetics, Association Internationale de Cybernétique”, Namur 1998, s. 420. 398 M. Biedrzycki, Genetyka kultury, Wyd. Prószyński i S-ka, Warszawa 1998, s. 91. Proces rozprzestrzeniania się i internalizacji memów zmienił się znacząco z powoduj rozwoju technologii informatycznych. Początkowo w kulturze dominowało „pionowe” rozprzestrzenianie się memów, a wiedza (treść) przekazywana była przez „wąskie gardło” najpierw od rodziców do dzieci398. Następnie memy przekazywali wyselekcjonowani twórcy posiadający odpowiednie kwalifikacje399. W erze Internetu dyfuzja przebiega początkowo poprzez przypadkowych twórców (prosumentów), którzy w celu usankcjonowania swoich działań skupiają się w społeczności. Jako przykład można podać tworzenie encyklopedii, w których dawniej hasła edytowali tylko naukowcy. Dzięki rozwojowi Internetu dostęp do podobnych możliwości uzyskali amatorzy, na przykład współtworzący Wikipedię. Jak zauważa Sebastian Skolik użytkownicy tej internetowej encyklopedii nie tylko edytują hasła, ale też „organizują działania, wzajemnie się motywują, sankcjonują przyjęte reguły, ale przede wszystkim wytwarzają przestrzeń współpracy, specyficzne środowisko cyberprzestrzeni”400. Sytuacja ta implikuje rozumienie Wikipedii zarówno jako wspólnego dobra wszystkich internautów, jak i wspólnoty redaktorów tworzących i broniących własnego terytorium. Tak rozumiany proces dyfuzji zasad (memów) kulturowych i społecznych sprawia, że wokół Wikipedii tworzy się społeczność, która jest pokrewna kulturowo, internalizuje te same memy i jest skłonna do ich obrony przed zewnętrznymi intruzami. 399 S. Skolik, Pacynki, trolle, spam, hoaxy i wandalizmy. Mechanizmy wykrywania oszustów w przestrzeni Wikipedii, „Teksty z Ulicy. Zeszyt memetyczny” nr 18, 2017 s. 131. 400 Ibidem, s. 132. 401 H. W. Hethcote, The mathematics of infectious diseases, „Siam Review”, nr 42(4), 2000, s. 601. Dyfuzja memów kulturowych porównywana bywa do rozprzestrzeniania się chorób. Podobne teorie powstały na gruncie badań nad dyfuzją treści. Taki model predykcyjny został opracowany na podstawie istniejących wcześniej badań nad rozprzestrzenianiem się wirusów w populacji (SIS i SIR)401. Następuje w nich podział użytkowników na kilka kategorii. W podstawowym wariancie SIR grupa oznaczona literą „S” (susceptible – z j.ang.: podatni) oznacza osoby, które mogą „zarazić się” informacją. Litera ”I” (infected – z j.ang.: zarażony) określa te osoby, do których dotarła informacja. Litera „R” (recovered – z j.ang.: wyleczony) odnosi się do odbiorców końcowych, którzy nie udostępnią zasobu dalej. Modele matematyczne opracowane na potrzeby epidemiologii uwzględniające prawdopodobieństwo przejścia określonych grup z jednej kategorii do drugiej można zastosować do przewidywania dyfuzji informacji. Wadą tego rozwiązania jest założenie, że w danej populacji każdy może przekazać informację każdemu, co w przypadku współczesnych mediów jest niemożliwe ze względu na wielość i złożoność relacji oraz interakcji zachodzących w Internecie. Inne modele predykcyjne zakładają, że na podstawie wcześniejszych obserwacji możliwe jest przewidzenie tego, w jaki sposób zasób rozprzestrzeni się w przyszłości. W tym celu buduje się specjalne mapy rozprzestrzeniania się informacji z zaznaczonymi użytkownikami (również instytucjonalnymi) oraz siecią ich powiązań z innymi. W modelach tych ważną rolę odgrywa grupa nazywana „wcześnie adaptującymi”, czyli użytkownikami, którzy jako pierwsi rozpoczęli rozpowszechnianie danej informacji402. Następnie tworzy się specjalne wykresy pokazujące rozprzestrzenianie się zasobu w konkretnej sieci powiązań. Można z nich odczytać, którzy użytkownicy mają szansę otrzymać dany zasób w przypadku wyłączenia (dezaktywacji) jednej z osób z modelu. Tworzenie podobnych sieci nie ma jednak już większego sensu ze względu na dynamiczny rozwój sieci powiązań i zwielokrotnienie źródeł informacji w mediach społecznościowych. Może on być przydatny w badaniu bardzo małych grup. Kolejny model zakłada , że najważniejszą rolę w dyfuzji mają osoby, które wcześnie adaptują daną informację. W tym ujęciu dyfuzja staje się sumą wpływów osób najwcześniej przekazujących informację. Im większy krąg odbiorców posiadają dani użytkownicy początkowi, tym szersza dyfuzja danej informacji403. 402 E. M. Rogers. Diffusion… op.cit. s. 26. 403 J. Yang, J. Leskovec. Modeling information diffusion in implicit networks. „ICDM’10: The 10th IEEE International Conference on Data Mining”, Sydney 2010, s. 600. 404 M. Kitsak, L. Gallos, S. Havlin, F. Liljeros, L. Muchnik, H. Stanley, H. Makse, Identification of influential spreaders in complex networks, „Nature Physics”, 6(11), 2010, s. 889. Identyfikacja najbardziej wpływowych użytkowników, dzięki którym informacja może rozprzestrzenić się szeroko w sieci, to kolejny istotny problem w przypadku dyfuzji treści. Dzięki odpowiedniemu doborowi takich użytkowników kampania marketingowa w mediach społecznościowych może się rozprzestrzenić bardzo szybko i trafić dokładnie do grup odbiorców, które są zainteresowane danym tematem. Przeprowadzone do tej pory badania wskazują, że najlepsze w rozprzestrzenianiu informacji nie są osoby z największą liczbą obserwujących404. Może to świadczyć o występowaniu różnego poziomu wpływu na dyfuzję w danych grupach i społecznościach. Być może jest to również efekt stopniowego wzrostu a następnie spadku zainteresowania konkretnymi influencerami lub ich działaniami. Badania nad tym aspektem dyfuzji nie należą jednak do zakresu mojej dysertacji. Warto również podkreślić, że nie istnieją osoby ani profile z uniwersalną zdolnością do rozprzestrzeniania każdego typu informacji. Większość profili jest w jakiś sposób ukierunkowana tematycznie. Autorzy zwracają uwagę na problem dotyczący modelowania dyfuzji. Twórcy poszczególnych modeli zakładają, że informacja rozprzestrzenia się tylko i wyłącznie poprzez media społecznościowe, a użytkownicy nie podlegają wpływom zewnętrznym i nie mogą otrzymać interesujących ich informacji z innych źródeł. Adrien Guille nazywa to zjawisko „założeniem zamkniętego świata”405. Inną zmienną często nie braną pod uwagę w prostym modelowaniu jest sam temat. Różne rodzaje tematów kierunkują różne kanały dyfuzji, inaczej wpływając na odbiorców. Dla przykładu prawdopodobieństwo dyfuzji wzrasta, o ile wydźwięk informacji będzie pozytywny dla danej grupy (np. partii politycznej, związku wyznaniowego, stowarzyszenia). Analogicznie prawdopodobieństwo dyfuzji wzrośnie, jeśli wydźwięk informacji będzie negatywny, ale przekazywać ją dalej będą osoby o przeciwnych poglądach i postawach. Zupełnie inaczej dyfundują treści o charakterze humorystycznym, które przekazywane są dalej niezależnie od poglądów politycznych prosumentów. 405 A. Guille, H. Hacid, C. Favre, D.A. Zighed, Information… op.cit., s. 9. Badania nad dyfuzją informacji można będzie w przyszłości wykorzystać w wielu dziedzinach życia społecznego. Dla przykładu odnalezienie osób mających znaczny wpływ na grono swoich przyjaciół w mediach społecznościowych może pomóc w dotarciu do nich z przekazem marketingowym. Także rozpoznanie choroby zakaźnej u osoby zamieszkującej i kontaktującej się ze swoimi przyjaciółmi z Facebooka może wskazać na krąg potencjalnych ludzi narażonych na infekcję, którzy powinni zostać poddani leczeniu zapobiegawczemu. Analogiczna sytuacja może mieć miejsce w przypadku wykrywania zagrożeń związanych z terroryzmem i przestępczością. Rozpracowanie modelu dyfuzji informacji wśród członków grup przestępczych może dać śledczym skuteczne narzędzia do wykrycia innych osób zamieszanych w proceder. ROZDZIAŁ V. OBRAZ DYFUZJI Z WNĘTRZA PORTALI Im bardziej wyszukane środki komunikacji, tym mniej komunikujemy… Joseph Priestley Klamrę spinającą wszystkie poprzednie rozdziały, stanowi opis wywiadów eksperckich z pracownikami analizowanych portali horyzontalnych. Tę część pracy rozpoczynam od przedstawienia tła metodologicznego, dotyczącego prowadzenia badań jakościowych w formie wywiadów. Zwracam przy tym uwagę na trudności, jakie wystąpiły w czasie badań. W toku wywodu opisuję efekty blisko rocznej pracy badawczej, zmierzającej do przedstawienia możliwie pełnego opisu dyfuzji zachodzącego w portalach. W tym celu odbyłem kilkadziesiąt spotkań z pracownikami Onetu, Wirtualnej Polski oraz Interii. Namówienie ich do udzielenia informacji na potrzeby pracy naukowej okazało się zadaniem niezmiernie trudnym ze względu na wąskie grono ekspertów posiadających wiedzę na temat analizowanego zagadnienia i obawy przed ujawnieniem informacji mogących stanowić tajemnicę firm. Ostatecznie pięciu pracowników zautoryzowało wywiady, które dołączone są w całości jako suplement na końcu pracy. Wszystkie osoby, z którymi rozmawiałem zastrzegły anonimowość, prawdopodobnie w obawie przed grożącymi im karami finansowymi lub dyscyplinarnymi. W kolejnych podrozdziałach omawiam zasadnicze hipotezy stawiane we wstępie do pracy oraz analizuję je pod kątem przeprowadzonych wywiadów. 5.1. Metodologiczne podstawy prowadzenia badań jakościowych w formie wywiadów W metodologii badań społecznych dominują dwa podejścia, często zestawiane ze sobą jako „konkurencyjne”. Chodzi o metody ilościowe i jakościowe. Jak wskazuje David Silverman w środowisku naukowym metody ilościowe często były uznawane za „nieodpowiednie”406. Autor tłumaczy dalej, że takie podejście jest niewłaściwe i nie powinno się rozstrzygać kwestii doboru metodologii na poziomie uniwersalnego rozróżnienia „gorsze-lepsze”. Zarówno badania jakościowe, jak i ilościowe są wartościowe i dostarczają nowej wiedzy w różnych dziedzinach. Należy jednak w odpowiedni sposób dobrać metodologię do problemu badawczego, który chce się rozstrzygnąć. 406 D. Silverman, Prowadzenie badań jakościowych, Wydawnictwo Naukowe PWN, Warszawa 2008, s. 28. 407 C. Frankfort-Nachmias, D. Nachmias, Metody badawcze w naukach społecznych, Wyd. Zysk i S-ka, Poznań 2001, s.. 266. 408 K. Punch, Introduction to Social Research: Quantittative and Qualitative Approaches, Wyd. Sage, Londyn 1998, s. 244. W odróżnieniu od badań ilościowych, które mogą wskazywać na przykład na pojawiające się trendy w czasie, nastawienie społeczne, zasięg portali internetowych wśród użytkowników, czy preferencje dotyczące wyborów, badania jakościowe mogą pomóc w zupełnie innym spojrzeniu na analizowane zagadnienie. Badania jakościowe pozwalają na dostrzeżenie nieznanych dotąd szczegółów dotyczących analizowanych zagadnień. Jak wskazują Chava Frankfort-Nachmias oraz David Nachmias badania jakościowe pozwalają zrozumieć „zachowania i instytucje poznając zaangażowane w nie osoby, ich wartości, rytuały, symbole, wierzenia i emocje”407. To ważne z punktu widzenia niniejszej pracy, bowiem dzięki przeprowadzonym wywiadom, możliwe będzie uzyskanie wglądu w działanie korporacji medialnych. Dzięki metodom jakościowym, można poznać powody podejmowanych przez ludzi lub organizacje decyzji, a także poznać praktyczne zastosowania wiedzy zgromadzonej m.in. w organizacjach medialnych takich jak Onet, Wirtualna Polska i Interia. W toku przygotowań do badań jakościowych pomocne wydają się wskazówki opracowane przez Keith Punch408. Badaczka zaproponowała kilka pytań, dzięki którym lepiej można zrozumieć przedmiot i cel badań oraz zoperacjonalizować pewne założenia praktyczne. Pierwsze dotyczy tego, jaki efekt chce się osiągnąć w badaniach. Celem mojej pracy jest odpowiedź na pytanie o nowe formy dyfuzji treści oraz ich wpływ na decyzje portali horyzontalnych w Polsce. Problem ten był badany przede wszystkim albo tylko z technicznego (analiza big data), albo tylko społeczno-kulturowego punktu widzenia. Połączenie obu tych optyk wydaje się najbardziej wartościowe, co proponuję w dysertacji. Aby sprawdzić stawiane tezy, konieczna jest rozmowa z osobami znającymi portale oraz zadawanie pytań często wrażliwych, z punktu widzenia ochrony tajemnic firm. Pytania dotyczyć mają zatem procesów wydawniczych, nowych rodzajów dyfuzji treści, wykorzystywanych technologiach i procedurach oraz możliwości wykorzystania dyfuzji treści przez portale, w lepszym reagowaniu na zagrożenia. Drugie wskazanie Keith Punch dotyczy tego, w jaki sposób badacz powinien skoncentrować się na analizowanym zagadnieniu. W przypadku niniejszej pracy nie będzie to badanie istniejącego zjawiska, ale opis konkretnej sytuacji, w jakiej znajdują się obecnie polskie portale horyzontalne w kontekście nowych form dyfuzji treści. Przeprowadzenie badań może również wskazać na pewne rozbieżności w funkcjonowaniu portali oraz w kanałach dyfuzji kluczowych z punktu widzenia każdego z nich. Trzecie z pytań które stawia Punch dotyczy istniejących opracowań na podobne tematy. W Polsce jak dotąd nie przeprowadzono badań jakościowych i porównawczych dotyczących dyfuzji treści prowadzonej przez portale internetowe. Jest jednak spory zasób literatury dotyczący badań nad samym Internetem oraz badań ilościowych, który również został omówiony we wcześniejszych częściach pracy. Czwarte z pytań dotyczy dostępnych zasobów oraz planowanego czasu badania. Jeśli chodzi o czas realizacji założono, że wszystkie rozmowy przeprowadzone zostaną w 2019 roku. Z kolei zasięg badań uzależniam od wyrażenia zgody na publikację przez osoby pracujące w korporacjach medialnych. Byłem świadomy tego, iż wielu rozmówców może nie zgodzić się na wykorzystanie ich słów i przekazanej wiedzy w formie zapisanego wywiadu, co wynika z obaw omówionych w dalszej części rozdziału. Keith Punch pyta również, czy możliwe jest uzyskanie dostępu do jednego, konkretnego przypadku, na którego analizie zależy badaczowi. Na to pytanie należy odpowiedzieć pozytywnie, bowiem nie założyłem z góry zarówno minimalnej, jak i maksymalnej próby badawczej, ze względu na specyfikę omawianego zagadnienia, dotyczącego korporacji medialnych. Ostatecznie odbyłem 30 osobistych rozmów, przeprowadzonych według kwestionariusza dołączonego w całości w suplemencie pracy. Jestem świadomy braku reprezentatywności próby w zakresie wywiadów, które miały głównie charakter sondujący problem, dążący do uchwycenia jego konkretnego opisu w czasie (2019 rok) oraz służyły weryfikacji hipotez postawionych we wstępie. Od początku pracy nad dysertacją wiedziałem, że liczba wywiadów może być niewielka, ze względu na bardzo wąski krąg osób pracujących nad wdrażaniem nowych technologii w portalach horyzontalnych w Polsce, a po wtóre ze względu na niechęć do dzielenia się posiadaną wiedzą. Jednocześnie przyjąłem założenie, że tylko osoby z tego kręgu mogą wnieść jakościowe i konkretne informacje do badań nad dyfuzją. Nie spodziewałem się jednak takiej skali oporu i niechęci (które analizuję szerzej nieco dalej) przy autoryzacji wywiadów, których uzyskałem finalnie pięć. Krzysztof Konecki zwraca uwagę, że w nauce ścierają się dwa podejścia. Pierwsze dopuszcza łączenie badań ilościowych z jakościowymi, widząc w nich szanse na pełniejsze poznanie i opisanie problemu postawionego w badaniach. Druga koncepcja mówi, że „między tymi dwoma rodzajami badań istnieje sprzeczność sięgająca swymi źródłami do ogólnych założeń ontologicznych, epistemologicznych, przede wszystkim zaś metodologicznych”409. Dalej autor zauważa, że metodologie badawcze można też rozumieć jako narzędzia wykorzystywane przez badacza w pracy. W tym ujęciu pozostają one neutralne i jako takie nie powinny być sobie przeciwstawiane. 409 K. Konecki, Studia z metodologii badań jakościowych. Teoria ugruntowana, Wydawnictwo Naukowe PWN, Warszawa 2000, s. 16. 410 Ibidem, s. 17. Autor wskazuje na dwa główne paradygmaty istniejące w naukach społecznych. Pierwszy nazywany jest paradygmatem interpretatywnym, w którym pojęcie „działania” przeciwstawione jest „bezznaczeniowemu zachowaniu”. W paradygmacie normatywnym „zachowanie” odgrywa kluczową rolę, ponieważ pewien bodziec (zmienna niezależna) wywołuje pewne zachowanie (zmienna zależna). Oba paradygmaty inaczej traktują pojęcie roli społecznej. W przypadku paradygmatu interpretatywnego rola jest rozumiana jako dynamiczny proces, który jest w toku, zależąc m.in. od procesów nadawania znaczeń oraz różnych interakcji. Paradygmat ten zakłada, że natura człowieka jest twórcza, a rzeczywistość zmienna, ze względu na symboliczny charakter postrzegania świata i jego interpretacji. Z kolei paradygmat normatywny zakłada, że rola jednostki ma charakter unormowany z góry i jest jedynie „odgrywana” przez ludzi według wcześniej ustalonych reguł społecznych. W paradygmacie normatywnym rola jednostki jest stała, a ludzkie zachowania wynikają z odtwarzania obiektywnie istniejących wzorców410. Badania ilościowe są zatem domeną paradygmatu normatywnego, który stara się opisać pewne wzorce zachodzące w przestrzeni społecznej metodami statystycznymi. Zwolennicy takiego podejścia uważają, że tylko kwantyfikowalne dane mogą posłużyć do pełnego opisu rzeczywistości, a nauka w ogóle powinna skupić się na matematycznym aspekcie badań. Z kolei badania jakościowe są przypisywane do paradygmatu interpretatywnego. Według ich zwolenników tylko one są w stanie uchwycić znaczenia, które nadają sens światu, zaś zdaniem ich przeciwników badania jakościowe powinny być jedynie punktem wyjścia do dalszych rozważań411. 411 Ibidem, s. 19. 412 Ibidem, s. 20. 413 Ibidem, s. 21. 414 D. Silverman, Prowadzenie… op. cit. s. 30. Podejście stawiające silny nacisk na jeden paradygmat było przedmiotem krytyki w świecie naukowym. Jak pisze Krzysztof Konecki: „to, co jest słabością technik jakościowych w jednym paradygmacie, jest ich siłą w innym; to samo dotyczy technik ilościowych”412. Autor proponuje dalej dyferencjacje danych jakościowych oraz ilościowych według dwóch kryteriów: technicznego i paradygmatycznego. Dzięki rozróżnieniu technicznemu sposoby zbierania danych rozumie się jako pewne neutralne narzędzia, które mogą równie dobrze służyć zarówno zwolennikom paradygmatu interpretatywnego jak i normatywnego. Z kolei rozróżnienie paradygmatyczne miałoby polegać na odmiennym rozumieniu technik jakościowych i ilościowych w różnych paradygmatach. Jak pisze Konecki „w paradygmacie normatywnym badania jakościowe są jedynie wstępem do obiektywnych, ilościowych metod pomiaru, w paradygmacie interpretatywnym natomiast badania jakościowe są wystarczającą podstawą opisu i wyjaśniania emergentnej rzeczywistości”413. Autor podkreśla, że choć nie byłoby błędem łączenie metod jakościowych i ilościowych, to pomieszanie paradygmatów mogłoby doprowadzić do niekoherencji i „mętliku teoretycznego”. Wydaje się, że aby jak najlepiej poznać i zrozumieć decyzje korporacji medialnych, należy wyjść od danych ilościowych a następnie porozmawiać z osobami, które na ich podstawie podejmują decyzje. Badania ilościowe mogą być wykonywane na dużo większych próbach badawczych, przez co pozwalają na wnioski dotyczące całej społeczności414. Z kolei zaletą badań jakościowych jest możliwość zdobycia szczegółowej, pogłębionej wiedzy na dany temat. Autorzy zwracają uwagę na fakt, że badania jakościowe i ilościowe mogą się przenikać i uzupełniać. Piotr Idzik zauważa, że wnioski wysuwane z badań nad wielkimi zbiorami danych mogą „łączyć jakościową wnikliwość i ilościowe uwiarygodnienie”415. Z kolei David Silverman pisze, że w badaniach łączenie metodologii jakościowych i ilościowych bywa pomocne w lepszym zrozumieniu problemu oraz pojawiania się ewentualnych rozbieżności (odchyleń) między statystykami a odczuciami społecznymi416. 415 P. Idzik, Analiza…, op. cit. s. 160. 416 D. Silverman, Prowadzenie… op. cit. s.. 31. 417 E. Babbie, Badania społeczne w praktyce, Wydawnictwo Naukowe PWN, Warszawa 2003, s. 48. 418 Ibidem, s. 49. 419 K. Konecki, Studia…, op. cit. s. 21. 420 M. Szpunar, Humanistyka…, op. cit. s. 360. Podobnego zdania jest Earl Babbie, który zwraca uwagę na fakt, że każde badanie u swych podstaw ma charakter jakościowy. Kwantyfikacja zebranych danych, czyli nadanie im wartości numerycznych, może sprawić, że obserwacje staną się bardziej wyraziste i można je będzie porównać z innymi danymi417. Dzięki temu możliwe staje się także zastosowanie metod statystycznych w badaniach jakościowych. Jednocześnie autor dodaje, że nie wszystkie pojęcia dają się łatwo skwantyfikować do form liczbowych. „Każdy jednoznaczny, ilościowy pomiar będzie uboższy w znaczenie, niż odpowiadający mu opis jakościowy” – pisze Earl Babbie418. Ze stwierdzeniem tym zgadza się również Krzysztof Konecki, który dochodzi do wniosku, że nie ma sprzeczności między stosowaniem metod jakościowych i ilościowych419. Podobnego zdania jest również Magdalena Szpunar, która w kontekście humanistyki cyfrowej pisze, że „sięgnięcie do instrumentarium właściwego naukom ścisłym potraktować można jako niewątpliwą szansę dla zdegradowanych i od wielu lat niedocenianych nauk humanistycznych”420. Aby badacz mógł w jak najbardziej adekwatny sposób opisać rzeczywistość, przy wykorzystaniu odpowiedniej metodologii oraz wcześniej opracowanych procedur, w naukach społecznych wprowadzono pojęcie triangulacji. Triangulacja wyjaśnia zjawiska przy użyciu wielu metod badań oraz wielu źródeł danych. Można wyróżnić cztery jej typy: 1) triangulację danych, czyli użycie danych z różnych źródeł; 2) triangulację badacza, czyli wprowadzenie do badań wielu obserwatorów; 3) triangulację teoretyczną, tj. użycie wielu perspektyw teoretycznych do zinterpretowania posiadanych danych; 4) triangulację metodologiczną, czyli użycie wielu metod do zbadania pojedynczego problemu421. 421 K. Konecki, Studia…, op. cit. s. 86. 422 D. Silverman, Prowadzenie…, op. cit. s. 29. 423 Ibidem, s. 32. Metodologię przyjętą w pracy tworzyłem opierając się na powyższych koncepcjach, które dopuszczają połączenie danych ilościowych z danymi jakościowymi. Początkowa analiza big data, dotycząca źródeł i form dyfuzji treści w sieci, należy do zakresu współczesnych badań ilościowych w Internecie. Zebrane w ten sposób dane zweryfikowano pod kątem jakościowym przeprowadzając wywiady z pracownikami największych polskich portali internetowych, uzyskując znacznie głębszy obraz analizowanego zjawiska. Badania ilościowe i jakościowe w niniejszej pracy łączą się i wzajemnie uzupełniają. Autorzy wskazują, że odpowiednie przygotowanie badań jakościowych musi rozpocząć się od zastanowienia nad efektami, które chce się osiągnąć422. Jednym z głównych założeń niniejszej pracy, było zweryfikowanie wpływu zachodzącego między pojawieniem się w Internecie nowych sposobów dyfuzji treści a zmianami wydawniczymi i technologicznymi w największych polskich portalach internetowych. Liczbowy opis nowych form dyfuzji oparty o analizę wielkich zbiorów danych, stał się niejako punktem wyjścia do dalszych badań jakościowych nad dyfuzją oraz jej formami stosowanymi w Polsce. Badania ilościowe nad różnymi drogami dyfuzji treści, umożliwiły lepsze przygotowanie do badań jakościowych. Przeprowadzone i opisane wcześniej eksperymenty udowodniły m.in. fakt, że polskie portale internetowe wprowadzają algorytmizację i personalizację wydawania treści. To z kolei umożliwiło zadawanie bardziej szczegółowych pytań, podczas wywiadów z ekspertami pracującymi w polskich portalach internetowych. Należy zgodzić się z poglądem Davida Silvermana, że w badaniach jakościowych można ograniczyć się do analizy kluczowych przypadków, zawężając zasięg badań na rzecz ich szczegółowości423. Przyjęcie takich technik pozwala na „głębsze” zrozumienie badanego zjawiska. Silverman zwraca uwagę na dwa podejścia w badaniach jakościowych. Pierwszym jest emocjonalizm, który za esencjonalne uznaje zwrócenie uwagi na znaczenia i emocje. Celem podobnych badań jest rzeczywisty wgląd w dane zagadnienie, zaś preferowanym rodzajem badań są wywiady swobodne. Drugi model nazywany jest konstrukcjonizmem, gdzie najważniejsza jest interakcja, zachowanie badanych. Dzięki temu modelowi można dowiedzieć się, jak powstają konkretne zjawiska. Danymi zbieranymi w przypadku podobnych badań są obserwacje, analiza tekstów czy nagrań. Różnice w obu podejściach prezentuje Tabela 21. Tabela 21. Porównanie modeli badań jakościowych: emocjonalizmu i konstrukcjonizmu. EMOCJONALIZM KONSTRUKCJONIZM Główny przedmiot zainteresowania Postrzeganie, znaczenie, emocje Zachowanie Cel Rzeczywisty wgląd Badanie, jak tworzone są zjawiska Preferowany rodzaj danych Wywiady swobodne Obserwacje, teksty, nagrania Źródło: D. Silverman, Prowadzenie badań jakościowych, Wydawnictwo Naukowe PWN, Warszawa 2008, s. 33. Na potrzeby niniejszej pracy zasadne wydaje się zastosowanie podejścia emocjonalistycznego. Celem pracy jest bowiem uzyskanie rzeczywistego wglądu w modelowanie dyfuzji w polskich portalach społecznościowych. Aby móc zweryfikować postawione we wstępie do pracy hipotezy badawcze niezbędne jest zrozumienie znaczenia konkretnych rodzajów dyfuzji oraz tego w jaki sposób są one postrzegane przez osoby odpowiedzialne za rozwój portali. W badaniach jakościowych możliwe są również dwa inne podejścia: analiza zorientowana na zmienną oraz analiza zorientowana na przypadek. Earl Babbie stwierdza, że pierwsza w centrum zainteresowania badacza stawia relacje między zmiennymi, a obiekty poddawane badaniom traktuje jako nośniki tych zmiennych424. Zakłada się zatem prowadzenie szerzej zakrojonych badań pewnych grup lub społeczności, które mogą dać odpowiedź na przykład na pytanie o motywacje przy podejmowaniu konkretnych decyzji, takich jak wybór uczelni wyższej, czy zastosowanie takiego a nie innego rozwiązania technologicznego przez portal horyzontalny. 424 E. Babbie, Badania…, op. cit. s. 400. Z kolei analiza przypadku polega na zdobyciu możliwie pełnej informacji dotyczącej czynników determinujących decyzje podejmowane przez poszczególne osoby, bądź – jak w przypadku dyfuzji – największe polskie portale internetowe425. Analiza taka ma swoje wady, daje bowiem głęboki wgląd w jeden konkretny przypadek, który badacz stara się potem przełożyć na „przykłady bardziej ogólnych pojęć i zmiennych społecznych”426. Aby badania takie były możliwie pełne autorzy postulują prowadzenie przekrojowej analizy przypadków. Polega ona na tym, że w badaniach zwraca się ku innym, podobnym faktom, analizując drobiazgowo te szczególne zmienne, które są kluczowe z punktu widzenia celu badań. Innymi słowy „studium przypadku skupia się na jednym lub kilku elementach pewnego zjawiska społecznego, takiego jak wioska, rodzina, gang nastolatków”427. Ważne jest przy tym sama operacjonalizacja słowa „przypadek”. W dyskursie naukowym panuje dość powszechna zgoda co do tego, że termin ten należy rozumieć w sposób szeroki. Studium przypadku ma zatem polegać na ograniczeniu uwagi badacza do jakiegoś konkretnego przykładu. Opierając się na powyższych założeniach metodologicznych zdecydowałem się na przeprowadzenie przekrojowej analizy przypadków rozmawiając z różnymi osobami na stanowiskach managerskich z trzech największych polskich portali: Onetu, Wirtualnej Polski oraz Interii. 425 Ibidem, s. 401. 426 Ibidem, s. 401. 427 Ibidem, s. 320. 428 Ibidem, s. 332. W przypadku badań nad korporacjami medialnymi niemożliwa jest obserwacja uczestnicząca. Podjąłem co prawda próby uzyskania zgody na podobne badania, jednak odpowiedzi zawsze były odmowne i to na różnych szczeblach zarządczych, do prezesów włącznie. Z tego względu obserwacje lub analiza pracy, struktury firm, wewnętrznie powstających raportów i tekstów czy nagrań produkowanych w polskich portalach, jest de facto niemożliwa. Portale horyzontalne strzegą swoich tajemnic, nie chcąc zdradzać konkurencji planów, czy swoich możliwości technologicznych. Z tego względu zdecydowano się na przeprowadzenie wywiadów jakościowych z pracownikami firm, którzy wyrazili na to zgodę. Earl Babbie zauważa, że badania jakościowe poza obserwacjami i analizą dostępnych dokumentów mogą wymagać bardziej aktywnych dociekań, uwzględniających zadawanie pytań i rejestrowanie odpowiedzi428. Dalej autor stwierdza, że o ile w badaniach sondażowych pytania są bardzo ustrukturyzowane, o tyle w badaniach jakościowych realizowanych w formie wywiadów powinien być bardziej elastyczny. „Wywiad jakościowy jest interakcją między prowadzącym wywiad a respondentem. Prowadzący ma w nim ogólny plan badania, lecz nie jest to konkretny zestaw pytań, które należy zadać z użyciem konkretnych słów i w ustalonym porządku” – pisze Babbie429. Podobnego zdania są Nachmiasowie, którzy wprost piszą, że wywiad jakościowy może być zarówno całkowicie ustrukturowany, całkowicie nieustrukturowany lub łączyć w sobie oba powyższe podejścia430. 429 Ibidem, s. 332. 430 C. Frankfort-Nachmias, D. Nachmias, Metody…, op. cit. s. 254. 431 Ibidem, s. 255. Autorzy zauważają, że w przypadku przeprowadzania wywiadów jakościowych badacz musi być bardzo dobrze obeznany z tematem, powinien nadawać rozmowie ogólny kierunek, kładąc nacisk na niektóre tematy, które poruszane są przez respondenta. Przy przeprowadzaniu wywiadu ważne jest również, aby odpowiedzi respondenta stanowiły zdecydowanie większą część całej rozmowy. Na wywiady jakościowe można popatrzeć z dwóch perspektyw. Pierwsza zakłada, że respondent posiada pewne informacje, które badacz stara się wydobyć. Druga polega na przeprowadzaniu bardziej ogólnych rozmów, które mają dać szerszy obraz badanej sytuacji. W przypadku niniejszej pracy wydaje się, że zastosowane mogą być obie perspektywy. Z jednej strony managerowie pracujący w korporacjach medialnych posiadają specjalistyczną wiedzę na temat ich funkcjonowania oraz modelowania dyfuzji treści, z drugiej bardziej swobodna rozmowa może pomóc w lepszym zrozumieniu perspektywy i sposobu funkcjonowania firm w konkretnym czasie i konkretnym otoczeniu konkurencyjnym. Badacze wskazują, że zaletą wywiadu jakościowego jako metody prowadzenia badań jest elastyczność. Dzięki temu badacz może swobodniej formułować pytania, zmieniać ich kolejność, pogłębiać pojawiające się problemy, których wcześniej mógł nie być świadomy. Także w przypadku wywiadów to badacz kontroluje sytuację, może dzięki temu lepiej przeprowadzić wywiad, wybrać dogodne miejsce czy kolejność rozmów. Wywiady umożliwiają również zbieranie dodatkowych danych na temat respondentów, takich jak sposób ich zachowania, otoczenie w jakim się znajdują. Wszystko to może potem pomóc w lepszej interpretacji wyników431. Współczesna socjologia dopuszcza możliwość wykorzystania tzw. wywiadów eksperckich w badaniach. Źródeł zastosowania takiej metody można doszukiwać się w przyspieszeniu tempa życia społecznego i związanej z nim komplikacji wszelkiego rodzaju spraw publicznych, wymagających coraz głębszej wiedzy eksperckiej. Odnotowywany w ostatnim stuleciu skokowy wzrost odkryć w różnych dziedzinach nauki oraz możliwość dyfuzji wiedzy w społeczeństwach sprawiają, że „nawet osoba bardzo wykształcona nie jest w stanie rozeznać się we wszystkich dziedzinach wiedzy i nauki”432. Sytuacja ta implikuje fakt, że przynajmniej w niektórych przypadkach badacze nie posiadają odpowiedniego poziomu kompetencji do merytorycznej analizy istniejących zjawisk. 432 E. Kuehnelt-Leddihn, Demokracja – opium dla ludu?, Wyd. Thesaurus. Łódź 2008, s. 54. 433 J. Stempień, W. Rostoscki, Wywiady eksperckie i wywiady delfickie w socjologii – możliwości i konsekwencje wykorzystania. Przykłady doświadczeń badawczych, „Przegląd Socjologiczny”, nr 62/1, 2013 s. 90. 434 Ibidem, s. 91. Jak wskazują Jakub Stempień i Włodzimierz Rostocki przykład współczesnego wykorzystania wywiadów eksperckich w analizach, stanowią badania nad przyszłością gospodarczą branż i regionów, gdzie naukowcy odwołują się do wiedzy specjalistów-praktyków z dziedziny ekonomii433. Taka postawa wynika z faktu, że respondenci wywiadów eksperckich cechują się dużym dorobkiem zawodowym i profesjonalną wiedzą z określonego obszaru poddawanego analizie. Dzięki temu uczestnicy podobnych badań mogą tworzyć zarówno realistyczne i wartościowe prognozy, jak i zwracać uwagę na różne perspektywy analityczne. Jednocześnie w dyskursie podkreśla się, że w przypadku wywiadów eksperckich wystarczająca jest bardzo wąska grupa badawcza, zaś same rozmowy powinny mieć formę niestandaryzowanych wywiadów kierunkowych. Pytania zadawane respondentom powinny dotyczyć zatem „nie tylko faktów, lub stosunku do nich, lecz także prób ich wyjaśnienia i przewidywania”434. Z powyższych względów zastosowanie wywiadów eksperckich wydaje się najlepszą metodą w badaniach nad dyfuzją treści, zachodzącą w polskich portalach horyzontalnych. Dostęp do wiedzy z zakresu ich rozwoju i potencjalnych nowych dróg dyfuzji treści znajduje się bowiem w rękach wąskiej grupy specjalistów, działających na pograniczu informatyki, nowych technologii oraz zarządzania w korporacjach medialnych. Na etapie przygotowania do badań w formie wywiadów eksperckich stworzyłem kwestionariusz badawczy, który miał mi pomóc w ich przeprowadzaniu. Posługiwałem się nim w trakcie wszystkich odbytych rozmów i zamieszczam go w suplemencie pracy. Podstawowe zasady dotyczące prowadzenia wywiadu jakościowego mówią, że respondent musi czuć się bezpiecznie i przyjemnie oraz postrzegać badanie, jako warte włożonego w nie wysiłku. Dlatego w przypadku niniejszej pracy każda rozmowa była przeprowadzona w miejscu i czasie wybranym przez respondenta, gwarantującym pełną anonimowość i poufność. Podobnie rozmowy telefoniczne odbywały się przy użyciu numerów prywatnych, a wymieniane wcześniej wiadomości e-mail przechodziły jedynie przez prywatne skrzynki, do których pracodawcy nie mieli dostępu. W dyskursie naukowym podnosi się również, że należy przezwyciężyć pojawiające się przeszkody, w szczególności rozwiać obawy dotyczące celu badania i jego poufności435. Poufność w przypadku korporacji medialnych stanowiła główną przeszkodę w realizacji wywiadów na potrzeby niniejszej pracy. 435 C. Frankfort-Nachmias, D. Nachmias, Metody…, op. cit., s. 256. Rozpoczynając poszukiwania osób do przeprowadzenia wywiadów, wysłałem kilkaset wiadomości e-mail oraz odbyłem kilkadziesiąt rozmów telefonicznych z różnymi pracownikami Onetu, Wirtualnej Polski i Interii. Były to osoby na różnych szczeblach kariery w strukturze korporacji. W trakcie tak prowadzonych przygotowań uzyskiwałem numery telefonów i adresy poczty e-mail do kolejnych osób, które mogłyby zgodzić się na przeprowadzenie badań. Na tym etapie pracy dowiedziałem się, że każdy z pracowników podpisywał klauzulę poufności lub umowę o zakazie działalności konkurencyjnej. Wnioskować stąd można, że w każdej większej organizacji medialnej istnieją podobne praktyki dotyczące ochrony tajemnic firmy. Zatem już samo dotarcie do prywatnych informacji takich osób nie było rzeczą łatwą. Podstawowym kryterium jakim kierowałem się w doborze respondentów było stanowisko zajmowane w korporacjach medialnych. Zależało mi na tym, aby rozmawiać z osobami rzeczywiście znającymi swoje firmy, nadzorującymi w nich innowacyjne projekty i posiadającymi wiedzę, która jak dotąd nie była przedmiotem rozważań naukowych. Zdobycie danych personalnych często wiązało się z poleceniem nazwisk kolejnych osób przez te, które wcześniej odmawiały udzielenia wywiadu. Do zainicjowania kontaktów służyły także portale społecznościowe, w tym Facebook, Twitter i Linkedin. Jedna z osób przekazała na potrzeby niniejszej pracy kopię podobnej umowy, którą podpisała w 2017 roku. Poza standardowymi zapisami dotyczącymi zakazu działalności w firmach konkurencyjnych, świadczących podobny zakres usług, w umowie znajduje się paragraf dotyczący „ochrony tajemnicy”, który przytoczono w całości w ramce poniżej. OCHRONA TAJEMNICY FIRMY 1. Pracownik zobowiązuje się do zachowania w tajemnicy wszelkich danych i informacji, o których dowiedział się w związku z wykonywaniem powierzonych mu obowiązków , do których dostęp ma ograniczona liczba pracowników, a których ujawnienie mogłoby narazić Pracodawcę na szkodę. 2. W szczególności Pracownik zobowiązuje się do zachowania w poufności „tajemnicy spółki”, za którą w rozumieniu niniejszej umowy uznaje się następujące informacje dotyczące Pracodawcy: • struktura organizacyjna firmy i poszczególnych jej działów; • organizacja pracy; • procedury obowiązujące w firmie; • sposób prowadzenia działalności gospodarczej; • dane personalne pracowników, w szczególności ich adresy zamieszkania, numery telefonów, oraz inne dane wrażliwe określone w obowiązujących przepisach; • systemy wynagradzania i motywacji pracowników; • wykorzystywane mechanizmy; • aktualne lub historyczne strategie dotyczące rozwoju firmy; • prowadzone i planowane projekty; • sprzęt, architektura i topologia sieci; • systemy operacyjne i stosowane rozwiązania technologiczne; • oglądalność, popularność, statystyki serwisów oraz liczba użytkowników; • wyniki wszelkich raportów i badań zlecanych, nabywanych, lub będących w posiadaniu Pracodawcy, które nie zostały upublicznione przez firmę wykonującą badania lub przez Pracodawcę; • warunki zawierania umów i przeprowadzania transakcji; • dane poufne dotyczące kontrahentów; • informacje o planowanych przedsięwzięciach w obszarze badań i aktywności promocyjnej; • informacje wynikające ze współpracy z organami ścigania przestępczości w Internecie. 3. Postanowienia ust. 1. i 2. Będą obowiązywały Pracownika w czasie zatrudnienia u Pracodawcy oraz przez okres 3 lat po ustaniu zatrudnienia. 4. W przypadku rozwiązania umowy o pracę Pracownik zobowiązuje się do zwrotu dokumentów i innych materiałów dotyczących Pracodawcy, jakie sporządził, zebrał, opracował lub otrzymał w trakcie wykonywania powierzonych mu obowiązków, włączając w to kopie, odpisy, a także zapisy na jakichkolwiek nośnikach zapisu, najpóźniej w dniu rozwiązania umowy o pracę. 5. W razie naruszenia przez Pracownika zakazów określonych w niniejszej umowie Pracownik zapłaci na rzecz Pracodawcy karę umowną w wysokości 50 000 złotych (słownie: pięćdziesiąt tysięcy złotych) za każde przekroczenie zakazu. Kara umowna będzie płatna w terminie 14 dni od dnia otrzymania wezwania do zapłaty od Pracodawcy. 6. Zapłata kary umownej nie wyklucza możliwości dochodzenia przez Pracodawcę odszkodowania za szkodę przewyższającą wysokość zastrzeżonej kary na zasadach ogólnych. Podobne umowy o zakazie działalności konkurencyjnej prowadziły do tego, że wiele z osób podczas wstępnych rozmów zasłaniało się tajemnicą zawodową i obawą przed ujawnieniem swoich danych osobowych. W praktyce dotarcie do ludzi, chcących podzielić się informacjami na temat nowych form dyfuzji stosowanych przez polskie portale internetowe było bardzo trudne. Jeszcze trudniejsze było nakłonienie ich do przekazania informacji i szczegółów dotyczących działań ich firm. Ostatecznie na osobiste spotkanie i wywiad zgodziło się 30 osób, jednak finalnie uzyskałem jedynie pięć autoryzacji wywiadów i zgód na ich publikację w całości. Z samego przytoczonego wcześniej fragmentu umowy o zakazie działalności konkurencyjnej można wysnuć kilka wniosków dotyczących danych szczególnie wrażliwych dla firm. Zakres informacji objętych klauzulą poufności jest bardzo szeroki. Jak się okazuje największe polskie korporacje medialne nie są skłonne podzielić się tak – wydawałoby się - podstawowymi danymi, jak choćby strukturą organizacyjną firmy. Kluczowe informacje, niezbędne do zweryfikowania tez stawianych w niniejszej pracy również podlegają ochronie. Chodzi tu w szczególności o prowadzone i planowane projekty dotyczące nowych form dyfuzji treści, ale także aktualne i historyczne strategie rozwoju firm. Ochronie podlegają również dane, które są de facto dostępne publicznie dzięki rozwojowi nowych narzędzi dotyczących analityki sieci. Niektóre informacje, które firmy chcą utajnić są dostępne lub powszechnie znane. I tak w przypadku struktury organizacyjnej korporacji medialnych niezbędne do działania są cztery główne piony. Pierwszy to redakcje, często podzielone tematycznie (np. redakcja informacyjna, sportowa, technologiczna, podróżnicza itp.). W skład redakcji wchodzą również wydawcy decydujący o treściach, które promowane są na stronach głównych portali, fotografowie, graficy, dziennikarze piszący oraz prowadzący programy wideo. Drugi pion niezbędny do działań portali horyzontalnych to dział IT, w skład którego wchodzą informatycy, programiści, osoby odpowiedzialne za serwery i programiści SEO. Trzeci pion w portalach to dział sprzedaży reklam oraz szeroko rozumianego marketingu. Reklamy wciąż są głównym źródłem dochodu portali, ceny reklam wahają się od kilkudziesięciu złotych za tysiąc wyświetleń do nawet 700 000 złotych w przypadku dedykowanej kampanii łączącej w sobie różne produkty reklamowe oraz różne strony specjalistyczne, znajdujące się w ofercie koncernów medialnych436. Ostatni niezbędny pion, to szeroko rozumiana administracja: od osób niezbędnych to technicznej obsługi zajmowanych obiektów, 436 Cennik Reklam Grupy Ringier Axel Springer, [dostępny online:] https://reklama.ringieraxelspr inger.pl/ oferta/cennik-dokumenty/ [dostęp: 22.11.19r.]. serwisowania sprzętu, przez księgowość, dział kadr, dział prawny, menagerów i zarząd. Każda korporacja medialna ma swoją unikatową strukturę i może różnić się organizacją pracy, obowiązującymi w firmie procedurami, sposobem prowadzenia działalności gospodarczej oraz zakresem kompetencji przypisanym do poszczególnych stanowisk. Powyższe informacje również objęte są klauzulą poufności, co jest zrozumiałe w sytuacji dużej konkurencji na rynku medialnym. Większych zastrzeżeń nie budzą również zapisy o ochronie danych osobowych pracowników oraz systemie ich wynagradzania i motywowania. Przepisy te są wymagane szczególnie w kontekście „Ogólnego rozporządzenia o ochronie danych osobowych”, w skrócie RODO, obowiązującego na terenie całej Unii Europejskiej437. 437 Ochrona danych zgodnie z RODO, [dostępny online:] https://europa.eu/youreurope/business/ dealing-with-customers/data-protection/data-protection- gdpr/index_pl.htm [dostęp: 22.11.19r.]. Klauzula poufności obejmuje także strategie rozwoju firmy oraz prowadzone i planowane projekty. To szczególnie ważne z punktu widzenia badań jakościowych przeprowadzanych na potrzeby niniejszej pracy. Pytania podczas wywiadów skupiały się właśnie na planowanych i aktualnie realizowanych projektach technologicznych, dotyczących m.in. dyfuzji treści z wykorzystaniem algorytmów i personalizacji oraz strategiach rozwoju korporacji. Interesujący wydaje się również fakt, że portale zakazują ujawniania informacji na temat statystyk serwisów i liczby użytkowników odwiedzających strony. Szczególnie, że dane te są powszechnie udostępniane przez różne narzędzia do analityki treści. Trzeba zauważyć, że korporacje medialne posiadają dużo konkretniejsze dane oraz mają możliwość znacznie szerszej analizy zachowania własnych użytkowników. Być może klauzula ta dotyczy właśnie tego typu wrażliwych danych, które nie są reprezentowane nigdzie indziej. W tym kontekście zrozumiałe jest również utajnienie wyników wszelkich badań zlecanych przez korporacje medialne. Przytoczone powyżej zapisy umowne pokazują jeszcze jedno bardzo ciekawe zjawisko. Korporacje medialne chronią swoje tajemnice wprost grożąc pracownikom wysokimi karami finansowymi, sięgającymi 50 tys. złotych za każde pojedyncze naruszenie. To stosunkowo duża kwota zważywszy na średnią płacę w Polsce, wynoszącą we wrześniu 2019 roku 5085 złotych438. Kary za naruszenie klauzuli poufności sięgają więc 10-krotności przeciętnego wynagrodzenia. W przypadku naruszenia tajemnicy automatycznie doszłoby również do zwolnienia dyscyplinarnego. Jak wynikało z rozmów z osobami pracującymi w portalach, obawiają się one powyższych sankcji i traktują je bardzo poważnie. 438 Wynagrodzenia w Polsce według danych GUS, [dostępny online:] https://wynagrodzenia.pl/gus [dostęp 25.11.19r.]. 439 E. Babbie, Badania…, op. cit. s. 50. 440 Ibidem, s. 522. 441 Ibidem, s. 523. 442 Ibidem, s. 524. Jako ciekawostkę można przytoczyć fakt, że jedna z osób, której przesłano gotowy wywiad do autoryzacji, warunkowo zgodziła się na jego publikację, z zastrzeżeniem podpisania odrębnej umowy, która zagwarantowałaby, że w przypadku odkrycia przez pracodawcę tożsamości rozmówcy, autor dysertacji pokryłby wszelkie kary i koszty, jakie pracodawca mógłby nałożyć na swojego pracownika. W kontekście powyższych rozważań warto przytoczyć fundamentalną zasadę nauk społecznych, o której pisze Earl Babbie. Nakazuje ona, aby nie krzywdzić badanych439. Autor wskazuje, że choć zasada ta wydaje się prosta, to jednak wymaga od badaczy uwagi i czujności. W dalszej części rozważań Earl Babbiie podkreśla, że „podstawową zasadą związaną z zabezpieczeniem interesów i dóbr osób badanych, jest ochrona ich tożsamości”440. W tym celu stosuje się dwie techniki: anonimowość i poufność. Zgodnie z zasadą anonimowości, tożsamość osób, które biorą udział w badaniach, nie powinna być znana nikomu, nawet badaczowi. Autor od razu zauważa, że w przypadku wykorzystania metody wywiadu zachowanie tej zasady jest niemożliwe441. Zasada poufności mówi, że choć badacz może zidentyfikować autora danej wypowiedzi, to obiecuje zachować ją w tajemnicy. Obowiązkiem badacza jest poinformowanie osób z którymi przeprowadza wywiady o tym, że obowiązuje go zasada poufności. Etyka w badaniach społecznych zobowiązuje do tego, aby ukryć tożsamość osób, które nie są osobami publicznymi i nie wyraziły zgody na ujawnienie swoich danych442. Z etycznego punktu widzenia koniecznością jest zatem nieujawnianie danych osób, z którymi przeprowadzane były wywiady. W przypadku badań jakościowych przeprowadzanych na potrzeby niniejszej pracy sytuacja z etycznego punktu widzenia jest jednak bardziej złożona. Wydaje się, że dla pełnego obrazu badań niezbędne jest podanie pewnych informacji dotyczących osób, z którymi przeprowadzane były wywiady. Jednak ujawnienie zbyt wielu danych może spowodować, że pracodawca uzna iż pracownik złamał zasady poufności obowiązujące w firmie. Z tego powodu w niniejszej pracy dane umożliwiające identyfikację osób udzielających wywiadów zostały utajnione, podobnie jak informacje na temat ich konkretnych stanowisk w firmach. By lepiej zrozumieć pozycję i wiedzę ludzi, z którymi rozmawiano ujawnione zostaną jednak inne, podstawowe informacje na temat ich stażu pracy oraz zajmowanego stanowiska. Opisy te zostały uzgodnione z osobami, których dotyczą. Pozwoli to na zachowanie zasady poufności, przy jednoczesnym pełniejszym zrozumieniu poziomu dostępu konkretnych osób do tajemnic firm. Kluczowym wskaźnikiem, który może zostać częściowo ujawniony jest tzw. grade pracowników. W korporacjach często stosuje się odwołania do grade’ów (z j. ang.: stopni, poziomów), które przypisuje się pracownikom na danych stanowiskach. Najogólniejszy podział mówi, że podobnych stopni jest 20. Każde stanowisko ma przypisany swój grade. I tak stanowiska podstawowe i specjalistyczne mieszczą się w przedziale od 1-15, średnia kadra zarządzająca to grade’y od 16 do 19, zaś najwyższa kadra managerska to „grade” 20443. Wraz ze wzrostem „grade’ów” poprzez awanse w firmach rosną zarobki, zakres odpowiedzialności oraz zwiększa się dostęp do wiedzy na temat organizacji oraz opracowywanych w niej innowacji. W trakcie przygotowań do badań założyłem, że rozmowy będą przeprowadzane z pracownikami, których „grade’y” zawierają się w przedziale 16-20 i to założenie udało się spełnić. Rozmawiałem zatem z osobami ze średniej lub wyższej kadry zarządzającej w korporacjach medialnych. Ta informacja nie pozwoli na odkrycie, o które osoby może chodzić, ze względu na znaczną liczbę pracowników na tych poziomach, a dla prowadzonych badań konkretna tożsamość rozmówców jest nieistotna. 443 H. Guryn, Zarządzanie przez cele i system wynagradzania pracowników na przykładzie firmy Empik Sp. z o.o., [dostępny online:] https://www.prawo.pl/kadry/zarzadzanie-przez-cele-i-system-wynagradza nia-pracownikow-na-przykladzie-firmy-empik-sp-z-o-o-,274461.html [dostęp: 25.11.19r.]. Należy również podkreślić, że przeprowadzane wywiady były całkowicie dobrowolne, osoby badane nie były wcześniej znane autorowi pracy, a rozmowy odbywały się w miejscach neutralnych, zapewniających komfortowy przebieg wywiadu. Badania jakościowe w formie wywiadów są obarczone ryzykiem i wadami. Informatorzy, którzy godzą się na ujawnienie pewnych wrażliwych danych i którzy mają bezpośrednią wiedzę na temat badanych organizacji lub zjawisk często przekazują mieszaninę faktów i poglądów444. Rolą badacza w takiej sytuacji jest dobre zrozumienie problemu tak, aby móc popatrzeć na przekazywane przez informatorów dane w sposób możliwie obiektywny. Inne wady badań jakościowych, na które wskazują badacze to wyższe koszty badań, możliwa stronniczość zarówno osoby przeprowadzającej wywiad jak i respondenta oraz brak anonimowości445. W przypadku niniejszej pracy szczególnie mocno wybrzmiał ten ostatni problem, a uzyskanie zgody na rozmowę i późniejszą publikację wywiadów okazało się zadaniem trudniejszym, niż zakładałem na początku. 444 E. Babbie, Badania…, op.cit. s. 340. 445 C. Frankfort-Nachmias, D. Nachmias, Metdoy…, op. cit. s. 254. 446 E. Babbie, Badania…, op. cit. s. 526. Kolejnym zastrzeżeniem metodologicznym, na które zwraca się uwagę w dyskursie naukowym jest to, że nie zawsze wyniki badań muszą potwierdzać hipotezy zakładane na początku. Informacja o tym, że dwie zmienne nie są od siebie zależne jest również cenna z punktu widzenia nauki, jak informacja że dwie zmienne są ze sobą powiązane. W pracach naukowych powinny być także zawarte inne wnioski, które mogły pojawić się w trakcie wykonywania badań, a nie były wcześniej zakładane446. Finalnie uzyskałem pięć autoryzacji wywiadów i zgód na ich publikację w ramach rozprawy doktorskiej. Rozmówcą z Wirtualnej Polski był product menager z 12-letnim doświadczeniem w mediach elektronicznych, który w swojej karierze przeszedł przez szczeble redaktora i wydawcy. Kolejny wywiad przeprowadzono z kierownikiem projektów w Interii, odpowiedzialnym za wdrażanie i nadzór nowych produktów, który posiada 5-letni staż na tym stanowisku. Wcześniej osoba ta pracowała także w innych mediach internetowych, gdzie pełniła funkcje wydawcy. Kolejnym rozmówcą był kierownik projektów z 8-letnim stażem, odpowiedzialny w Onecie m.in. za nadzór i rozwój nowych produktów wydawniczych. Przeprowadzono również wywiady z dwoma programistami. Pierwszym jest osoba z 9-letnim stażem zawodowym, od trzech lat zajmująca się w Onecie pracami nad nowymi algorytmami służącymi dyfuzji treści. Druga osoba to informatyk pracujący w Wirtualnej Polsce od dwóch lat, zajmujący się procesami optymalizacji stron pod kątem wyszukiwarek internetowych oraz architekturą strony głównej portalu. 5.2. Podstawowe kanały dyfuzji Wszystkie przeprowadzone wywiady wskazują, że w świadomości pracowników trzech największych portali informacyjnych wciąż głównym źródłem dyfuzji treści pozostają strony główne. Wnioski płynące z rozmów oraz wynikające z nich dane pokrywają się z analizami przeprowadzonymi we wcześniejszych częściach pracy. Wśród kadry zarządzającej istnieje przekonanie, że dyfuzja treści poprzez strony główne słabnie. Taki trend można zaobserwować również w mediach zagranicznych. Jego powodem może być zmiana sposobu konsumpcji treści medialnych przez użytkowników Internetu wywołana m.in. przez zmiany technologiczne oraz postępujące za nimi zmiany kulturowe447. Użytkownicy korzystają też coraz częściej z mediów społecznościowych, Facebook jest drugą pod względem popularności stroną w polskim Internecie (zob. Wykres 19.), generującą 6,41% wszystkich wizyt w naszym kraju. Wpływa to na zmianę sposobów interakcji międzyludzkich oraz dyfuzji informacji w społeczeństwie448. 447 M. Szpunar Mediamorfoza a rozwój i funkcjonowanie Internetu, „Imperializm Kulturowy Internetu”, wyd. Instytut Dziennikarstwa, Mediów i komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków 2017 s. 125. 448 D. Jemielniak Socjologia…, op. cit. s. 16. Wykres 19. Dziesięć najpopularniejszych stron w polskim Internecie we wrześniu 2019 roku oraz ich procentowy udział w ruchu w sieci. 1,11% 1,15% 1,58% 1,89% 2,20% 2,88% 2,91% 5,56% 6,41% 14% OLX Wikipedia Interia Allegro Onet Google WP Youtube Facebook Google Źródło: opracowanie własne na podstawie SimilarWeb. Powodów słabnącego znaczenia stron głównych portali może być więcej. Internet stał się areną walki między nauką a pseudonauką, faktami a fake newsami. Powodem takiego stanu rzeczy jest demokratyzacja i decentralizacja wiedzy eksperckiej następująca w sieci449. Stąd ważne dla portali informacyjnych jest zaufanie odbiorców. Z kolei sami internauci w swoim zachowaniu kierują się zasadą „minimaksu”. Oznacza to, że korzystają ze stron i treści, które są im znane, nie podejmują wysiłku, ale zdają się na rekomendacje wyszukiwarek i algorytmów450. Stąd budowanie zaufania wśród użytkowników oraz dbanie o rozwój nowych kanałów dyfuzji staje się priorytetami dla polskich portali. 449 C. Brosnan, E. Kirby: Sociological Perspectives on the politics of knowledge in health care. Intrduction to the themed issue, „Health Sociology Review nr 25(2), 2016 s. 140 450 M. Szpunar, „Nowe-stare…, op. cit. s. 85. We wszystkich wywiadach jako kanały dyfuzji treści wymieniano: strony główne, media społecznościowe, wyszukiwarki internetowe, aplikacje i notyfikacje na urządzenia mobilne oraz e-mailing. Dodatkowo każdy portal stawia również na własne pomysły dotyczące nowych treści. Są wśród nich telewizja internetowa, podcasty, specjalne listy mailingowe. Wydawcy portali zdają sobie sprawę, że w dynamicznie zmieniającej się rzeczywistości internetowej dywersyfikacja źródeł ruchu jest koniecznością. Wykorzystanie licznych form dyfuzji treści przynosi również pozytywne efekty finansowe. Managerowie zwracali uwagę na możliwość skuteczniejszej monetyzacji produktów, np. materiałów wideo, które można sprzedać telewizjom, czy innym mediom. W rozmowach padały sugestie dotyczące rozwoju barterowych form współpracy między mediami, działającymi na zasadzie wymiany generowanych treści w zamian za dzielenie się zyskami z reklam. Byłby to nowy sposób dyfuzji treści zachodzący między różnymi portalami internetowymi. W praktyce dowolny portal generowałby treści, które bezpośrednio zamieszczane byłyby na przykład na stronie głównej Wirtualnej Polski, Onetu czy Interii, poszerzając ich ofertę tematyczną i otrzymując część zysków z wygenerowanych w ten sposób wyświetleń reklam. Taka sytuacja ma już miejsce w ramach tych samych grup medialnych, na przykład na stronę główną Wirtualnej Polski trafiają treści ze strony o2.pl, na stronę główną Interii trafiają treści ze strony rmf24.pl, zaś na stroną główną Onetu trafiają treści ze stron fakt.pl, czy newsweek.pl. Jak wynika z rozmów z przedstawicielami portali Onet oraz Wirtualna Polska jeszcze szerzej otwierają się na taki sposób dyfuzji treści, który można określić mianem strukturalnego, bowiem zachodzi przy udziale różnych struktur medialnych, oferujących treści na polskim rynku. Przykładem takiego rozwiązania może być specyficzna sekcja Onetu „Media Mówią” zamieszczana w każdej produkowanej przez portal treści, którą przedstawiono na Ilustracji 21. W jej ramach Onet zamieszcza linki nie bezpośrednio do swoich stron (jak to czynią w większości przypadków Wirtualna Polska i Interia), ale do stron innych mediów, w tym Radia Zet, RMF FM, Rzeczpospolitej, Dziennika Gazety Prawnej, portali Gazeta.pl i Prawo.pl. Jak wskazywali przedstawiciele portali swego rodzaju novum stanowi fakt, że Onet dobrowolnie przekierowuje ruch ze swoich stron do stron – wydawałoby się – konkurencyjnych. Jak wskazywali w rozmowach managerowie taka otwartość może zmienić rynek mediów elektronicznych w Polsce, powodując dywersyfikację źródeł treści i czyniąc ze stron głównych portali swoiste akceleratory dyfuzji dla innych witryn www. Ilustracja 21. Wygląd sekcji „Media mówią”, którą znaleźć można w treściach zamieszczanych w portalu Onet. Źródło: Onet.pl. Prace nad podobnymi rozwiązaniami dotyczącymi szerszej agregacji treści prowadzą portale Onet i Wirtualna Polska, choć ta druga organizacja bardziej skupia się na odpowiedniej ekspozycji własnych materiałów, głównie poprzez wewnętrzne linkowanie, a tym samym zachęty do pozostawania w środowisku portalu jak najdłużej. Z rozmów wynikało, że Interia również skupia się na linkowaniu w ramach własnej korporacji. Stosunkowo nowym kanałem dyfuzji są powiadomienia (notyfikacje, push) wysyłane przez wydawców stron internetowych na urządzenia mobilne oraz przeglądarki internetowe. Użytkownik odwiedzając portal może zaakceptować otrzymywanie takich powiadomień, a nawet wybrać tematykę, o której chce być informowany. Notyfikacje mogą dotyczyć m.in. przychodzących maili, najważniejszych wiadomości z kraju, świata, sportu, biznesu, pogody. Według statystyk udostępnionych przez PushPushGo, firmę sprzedającą technologię notyfikacji, od 5 do 25% użytkowników obsługiwanych przez nich stron zapisuje się na powiadomienia. Dane udostępnione przez firmę pokazują, że 60% odbiorców zapisuje się na powiadomienia za pośrednictwem urządzeń mobilnych, 30% korzysta z powiadomień w przeglądarkach na komputerach stacjonarnych, zaś 10% używa z tabletów451. Jak dotąd nie przeprowadzono badań nad notyfikacjami, technologia ta jest stosunkowo nowa i wiąże się z rozwojem aplikacji mobilnych. Notyfikacje powstały na bazie newsletterów i bywają również porównywane do komunikacji za pomocą SMS. Ich główną cechą jest szybkość dotarcia z komunikatem do odbiorcy, mogą w sobie zawierać zdjęcia lub linki452. 451 J. Worotyńska, 31 statystyk dotyczących powiadomień web push, które musi znać marketer, [dostępny online:] https://pushpushgo.com/pl/blog/31-statystyk-dotyczacych-powiadomien-web-push-ktore-musi-znac-marketer/ [dostęp: 22.12.19r.]. 452 A. Ogonowski, Powiadomienia Push – porównanie możliwości, [dostępny online] https://www.smsa pi.pl/blog/aktualnosci/powiadomienia-push-nowa-usluga-wiele-mozliwosci/ [dostęp 22.12.19r.]. Z rozmów z product menagerami wynika, że taka forma dyfuzji informacji jest bardzo atrakcyjna dla odbiorców. Szczególnie w przypadku ważnych, nagłych wydarzeń odpowiednio dobrany push potrafi wielokrotnie zwiększyć zasięg danej treści. Jest to zrozumiałe zważywszy na specyfikę konsumpcji treści na portalach horyzontalnych. Użytkownicy nie przebywają na nich długo, średnia sesja trwa ok. 8-9 minut (zob. Tabela 24). Po tym czasie odbiorca opuszcza portal. Jednak jeśli chce być na bieżąco z najważniejszymi wydarzeniami może zezwolić różnym stronom (w tym portalom) na dostarczanie powiadomień w formie notyfikacji wyświetlanych na ekranie urządzenia mobilnego lub w przeglądarce. Dzięki temu może być pewien, że nie ominą go najważniejsze wydarzenia mijającego dnia, z możliwością wybrania kategorii tematycznych, z jakiej ma otrzymywać powiadomienia. Tabela 24. Średni czas trwania sesji na stronach Onet, WP i Interia w okresie od lipca do września 2019 roku. Onet WP Interia Średni czas trwania sesji 00:09:16 00:09:23 00:08:38 Źródło: Opracowanie własne na podstawie SimilarWeb. W celu sprawdzenia liczby notyfikacji wysyłanych przez portale internetowe przeprowadzono eksperyment. W dniach 1-7 września monitorowano liczbę notyfikacji ogólnych Onetu oraz Wirtualnej Polski, wysyłanych do wszystkich użytkowników, którzy na to zezwolili. Uzyskano w ten sposób ogólną charakterystykę liczby wysyłanych powiadomień przez dwa największe portale. Wynika z niej, że liczba powiadomień w zależności od dnia wahała się i wynosiła dla Onetu od 5 do 10 notyfikacji a dla WP od 7 do 12 notyfikacji, dla Interii od 6 do 9 notyfikacji. Wyniki eksperymentu przedstawiono na Wykresie 20. Wykres 20. Liczba notyfikacji ogólnych wysyłanych w dniach 1-7.09.2019 roku przez portale Onet i WP. Źródło: opracowanie własne. 5 8 10 8 7 9 6 7 10 12 9 9 10 8 7 9 9 8 9 7 6 01.wrz 02.wrz 03.wrz 04.wrz 05.wrz 06.wrz 07.wrz Onet WP Interia Powyższy wykres wskazuje, że polskie portale horyzontalne chętnie korzystają z notyfikacji jako nowego kanału dyfuzji treści. Potwierdza to tezę stawianą we wstępie do pracy, mówiącą o tym, że innowacyjne podejście portali do dynamicznie zmieniającej się rzeczywistości technologicznej i medialnej sprawia, że rozwijają one nowe formy i strategie docierania do użytkowników sieci. Taką formą są notyfikacje, zaś strategią sposób ich wykorzystywania przez portale. Jak wykazał eksperyment nie istnieją ściśle wyznaczone regulacje wydawnicze dotyczące liczby wysyłanych powiadomień. Może ona zależeć od liczby wydarzeń, które redakcje oceniają jako na tyle znaczące, aby wysłać notyfikację do odbiorców. Polityka wysyłania powiadomień przez portale horyzontalne wydaje się coraz bardziej utrwalać zarówno w świadomości odbiorców jak i wśród wydawców. Świadczą o tym przeprowadzone na potrzeby pracy wywiady, w których managerowie mówią o dużym znaczeniu i przychylnym odbiorze tego nowego rodzaju dyfuzji treści. Istnieje jednak zagrożenie, że zbyt wielka liczba powiadomień dotyczących spraw nieistotnych z punktu widzenia odbiorcy może zniechęcić do dalszej subskrypcji powiadomień. Wydaje się, że z tego względu liczba wysyłanych notyfikacji jest relatywnie mała. Z przeprowadzonego eksperymentu wynika, że więcej powiadomień wysyła WP, z kolei Onet i Interia są w tej kwestii bardziej zachowawcze. Wydaje się, że dalsze badania nad sposobem wykorzystania notyfikacji przez portale internetowe mogą dostarczyć cennej wiedzy w zakresie nowych form dyfuzji treści. 5.3. Dyfuzja a zagrożenia i decyzje wydawnicze We wszystkich analizowanych polskich portalach trwa proces automatyzacji wydawania i personalizacji przekazywania treści. Ta forma oddaje dyfuzję informacji w „ręce” algorytmów. Z wywiadów wynika, że najbardziej zaawansowane pod tym względem są portale Onet i WP, które wdrożyły już podobne rozwiązania i obecnie planują je ulepszać. Wnioskować stąd można, że algorytm w kwestii dotarcia do użytkownika działa lepiej, niż człowiek. Wydawcy i programiści niechętnie mówili o szczegółach technicznych podobnych rozwiązań. Ujawnili jedynie, że w swoich decyzjach algorytmy opierają się o pliki cookie oraz wcześniejsze decyzje użytkowników stron. Niechęć do opowiadania o szczegółach personalizacji i algorytmizacji może wynikać z obawy przed ujawnieniem tajemnicy firm oraz grożącymi za to karami. Wskazuje to również na fakt, że procesy te są bardzo istotne z punktu widzenia portali internetowych, a zachowanie ich w tajemnicy leży w interesie właścicieli. Z przeprowadzonych rozmów wynika, że w polskich portalach trwają prace nad udoskonaleniem algorytmów tak, aby konkretnie sprofilowani użytkownicy otrzymywali na stronie te treści, które będą ich interesować. W niedalekiej przyszłości może to doprowadzić do sytuacji, w której każdy użytkownik będzie posiadał własną, sprofilowaną pod kątem upodobań i wcześniejszych wyborów wersję strony, co wpisuje się w szeroką problematykę powstawania sieci semantycznej. Najmniej zaawansowana pod tym względem wydaje się Interia, która dopiero rozważa wprowadzenie podobnych mechanizmów. W rozmowie zwracano uwagę, że wytworzenie algorytmów, niezbędne testy nowych rozwiązań, a następnie ich wdrożenie jest kosztowne i czasochłonne. Firmy, które już są w posiadaniu podobnych rozwiązań nie chcą dzielić nimi z innymi. Interia skupia się nie tyle na algorytmizacji wydawania, co na umożliwieniu lepszej personalizacji już istniejących produktów takich jak poczta czy serwis Decoria.pl. Taka postawa sprzyja reklamodawcom, którzy chcą dotrzeć ze swoim przekazem do mocno spersonalizowanych grup odbiorców np. interesujących się wnętrzarstwem czy modą. Istnienie coraz lepiej sprofilowanych rozwiązań technologicznych w mediach doprowadziło do ujawnienia się mechanizmów adaptacyjnych odbiorców, takich jak egocasting. Jest to zdolność prosumenta do pełnej personalizacji i indywidualizacji odbieranych zasobów sieci oraz do tworzenia treści zaspokajających jego własne ego453. Egocasting sprzyja selektywności odbioru, co ogranicza możliwości poznania szerszego kontekstu sprawy i może w konsekwencji prowadzić do tworzenia się baniek informacyjnych. Jak zauważa Magdalena Szpunar taki model konsumpcji treści niesie za sobą zagrożenia. Autorka pisze, że „utrwala on fałszywe i mocno egocentryczne wizje świata, pogłębiając przekonanie o ważności i słuszności własnych przekonań. Taka optyka sprawia, że jednostka nie tylko koncentruje się na samej sobie, ale także przestrzeń narracyjna, w jakiej przychodzi jej funkcjonować, jest mocno sfragmentaryzowana, wycinkowa, a w konsekwencji nieprawdziwa”454. 453 E. Jaska, Uwarunkowania makroekonomiczne rozwoju rynku reklamy w Polsce, „Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu”, nr 449, 2016 r., s. 228. 454 M. Szpunar, Koncepcja bańki…, op. cit. s. 196. Przeprowadzone rozmowy udowodniły, że w polskich korporacjach medialnych istnieje świadomość opisanych wcześniej zagrożeń związanych z personalizacją. W polskich portalach trwa aktualnie dyskusja na temat odpowiedniego wyważenia treści wydawanych w sposób zautomatyzowany i ręczny. Z zebranych informacji wynika, że najważniejsze treści są wyświetlane użytkownikom niezależnie od działania algorytmu. Faktem jest jednak, że większość stron wydają już programy, co udowodniły także eksperymenty opisane we wcześniejszych częściach pracy. Ostatnią kwestią poruszoną w rozmowach było istnienie algorytmów wytwarzających treści na potrzeby portali. Managerowie twierdzą, że podobne mechanizmy istnieją, jednak nie są jeszcze szeroko wykorzystywane w działaniach portali. Jednak samo potwierdzenie istnienia podobnych produktów jest ważną przesłanką predykcyjną. Możliwe, że w przyszłości nie tylko ludzie będą produkowali treści, ale zrobią to automaty wyposażone w umiejętność redagowania tekstu. Rodzi to liczne pytania natury etycznej. Nie wiadomo również kto miałby podobne programy opracowywać i nadzorować. Jak na razie największe polskie portale nie posiadają na tyle rozbudowanych narzędzi, aby zajmować się tym tematem w sposób głębszy. Stosowanie algorytmów wprowadzi zatem możliwość automatyzowania rutynowych zadań redakcyjnych, co może z kolei przełożyć się na odciążenie redaktorów i przypisywanie im bardziej kreatywnych zadań455. Z drugiej strony może prowadzić również do zwolnień w ramach redakcji, które podobnie jak w przypadku przemysłu 4.0, utracą kluczowe znaczenie, a ich pracę zastąpią algorytmy. 455 M. Mamak-Zdanecka i in., Społeczny…, op. cit. s. 17. Zdaniem managerów i programistów największych polskich portali zmiany w sposobie konsumpcji treści przez odbiorców oraz powiązane z nimi nowe formy dyfuzji treści mają znaczący wpływ na decyzje podejmowane przez ich firmy zarówno na poziomie technologicznym, jak i redakcyjnym. W rozmowach zwrócono uwagę na powstawanie nowych form dziennikarskich, które są dostoswane głównie do mediów społecznościowych. Należą do nich m.in. listikale (materiały wyliczające najciekawsze wydarzenia), quizy, krótkie wideo, czy podcasty. Grupa Ringier Axel Springer uruchomiła specjalny serwis Nozizz skierowany głównie do użytkowników portali społecznościowych456. Podobny serwis o2.pl posiada Wirtualna Polska. 456 Noizz.pl: Serwis dla millennialsów z reklamą natywną [dostępny online:] https://www.signs.pl/ noizz.pl: -serwis-dla-millennialsow-z-reklama-natywna,26429,artykul.html [dostęp: 21.12.2019r.]. 457 R.Montti, Facebook Imposes New Limits on Groups, Pages and Admins, [dostępny online:] https://www.searchenginejournal.com/facebook-click-gap/303033/#close [dostęp 21.12.19r.]. 458 M. Mamak-Zdanecka i in., Społeczny…, op. cit. s. 17. 459 R. Fielder, Mediamorphosis…, op.cit. s. 22. Dyfuzja informacji w mediach społecznościowych to wyzwanie stojące przed portalami. Rozmówcy podkreślali, że ten rodzaj dotarcia z treścią do użytkownika bywa problematyczny. Nie tylko ze względu na konieczność poszukiwania nowych, interesujących dziennikarskich form, ale także fakt działań m.in. Facebooka, który blokuje część wiadomości docierających do użytkowników. Mechanizm wyświetlania poszczególnych postów jest analizowany i cały czas udoskonalany457. Wywiady potwierdziły istnienie mechanizmów, które w sposób automatyczny publikują treści w mediach społecznościowych. Algorytmy takie służą temu, aby wszystkie treści publikowane przez redakcje trafiały na odpowiednie profile tematyczne portali bez udziału ludzi. Rola redaktorów została sprowadzona do nadzorowania działań mechanizmu. Wprowadzenie podobnych algorytmów automatyzujących proces wydawniczy na profilach polskich portali, może wynikać z chęci odciążenia redaktorów od konieczności ręcznej publikacji treści w mediach społecznościowych, co pozwala zaoszczędzić im czas i poświęcić go na inne zadania458. Inne przykłady działań wymuszonych przez zmiany w dyfuzji treści to położenie większego nacisku na problematykę SEO, zwiększenie liczby szkoleń i redaktorów odpowiedzialnych za podobne materiały, położenie nacisku na tworzenie nowych treści zoptymalizowanych pod kątem wyszukiwarek. Zmiany w decyzjach wydawniczych bywają także wymuszane przez zmiany technologiczne. Zdaniem Rogera Fiedlera wpływ na zmiany technologiczne w sieci wynikają ze „złożonych wzajemnych oddziaływań czynników takich jak potrzeby ludzkie, presja konkurencyjna, presja polityczna, zmiany społeczne i technologiczne innowacje”459. Do takich technologicznych innowacji zaliczyć można urządzenia mobilne, aplikacje oraz nowe wersje stron przystosowane specjalnie dla nich. Dzieje się tak w przypadku każdego z analizowanych portali i jak zapewniają managerowie jest to dla nich jeden z priorytetów. Przykładem inwestowania w urządzenia mobilne jest aplikacja WP Blast. Skierowana do młodzieży ma przekazywać informacje w znany i przyjazny dla młodych sposób: poprzez przesunięcia i stuknięcia (jak np. w aplikacji Snapchat). Taki sposób przedstawienia newsa wymusza na redakcjach stworzenie nowych sposobów prezentowania treści. ”Użytkownicy najpierw poznają treść samej informacji, jeśli ich ona zainteresuje będą mogli przeczytać o skutkach danego wydarzenia, aby na końcu, w trzeciej „odsłonie” informacji dowiedzieć się jak wpływa ona na życie ludzi” – mówi w wywiadzie pracownik portalu Wirtualna Polska. Nowe sposoby dyfuzji treści wpływają również na ich konsumpcję przez odbiorców. Stąd współcześnie jednym z najważniejszych parametrów mierzonych przez redakcje jest czas spędzony przez użytkowników na stronie (czas trwania sesji). Im dłuższy czas spędzony na stronie internetowej tym widoczność reklamy jest większa, dzięki czemu portale mogą sprzedawać ją drożej. Przystępując do badań nad dyfuzją treści w sieci, założyłem że jej nowe kanały mogą być przydatne także dla lepszego informowania o stanach zagrożenia występujących na świecie, na przykład rozprzestrzeniania się groźnych dla zdrowia wirusów lub informacji dotyczących nagłych zagrożeń spowodowanych klęskami żywiołowymi460. W tym kontekście dalsze badania nad możliwościami dotarcia z treścią do użytkowników nabierają ważnego społecznego znaczenia. 460 Y. Zhang: Optimizing and Understanding Network Structure for Diffusion, Wyd. Uniwersytet Stanu Wirginia, 2017 r. s. 26. 461 A. Walker, V.R. Panfil, Minor attraction: A queer crminological issue, „Critical Criminology” nr 25(1), 2017, s. 38. Podobną opinię wyrazili wszyscy przedstawiciele największych polskich portali. Zwrócili przy tym uwagę, że dzięki lepszym formom dyfuzji można także skutecznie pomóc w walce z przestępczością, m.in. publikując wizerunki poszukiwanych osób w miejscach, które chętnie odwiedzają internauci, w tym na portalach horyzontalnych i w mediach społecznościowych. Podobna teza prezentowana była również w dyskursie naukowym, gdzie wskazywano, że badania nad treściami publikowanymi w sieci mogą być pomocne przy wykrywaniu przestępstw461. Managerowie zwrócili także uwagę na fakt, że portale internetowe informują o sytuacjach niebezpiecznych znacznie szybciej, niż Rządowe Centrum Bezpieczeństwa. Dzięki współpracy z największymi polskimi operatorami sieci komórkowych instytucje rządowe uzyskały możliwość wysyłania wiadomości tekstowych na telefony komórkowe wszystkich osób znajdujących na danym obszarze. Założeniem powyższego programu jest poprawa bezpieczeństwa poprzez informowanie o zagrożeniu dla zdrowia i życia ludzi, np. o zbliżających się niebezpiecznych zjawiskach pogodowych462. W trakcie wywiadów zwrócono uwagę, że media elektroniczne mają szybszy dostęp do wielu baz danych i dzięki temu mogą informować o zbliżających się zagrożeniach szybciej m.in. dzięki notyfikacjom na telefony komórkowe. 462 G. Świszcz, Alert RCB w nowej odsłownie, [dostępny online:] https://rcb.gov.pl/alert-rcb-w-nowej- odslonie/ [dostęp 21.12.19r.]. W wywiadach zwracano uwagę na brak zainteresowania ze strony rządowej na szerszą współpracę z mediami w kwestii powiadomień. Przykładem dobrej współpracy w tej dziedzinie może być system Child Alert, który w przypadku zaginięcia lub uprowadzenia dziecka skutkuje natychmiastowym uruchomieniem procedury poszukiwawczej oraz informacyjnej w mediach w całym kraju, w tym także na portalach informacyjnych. Podsumowując mogę stwierdzić, że mimo niechęci oraz obaw przedstawicieli portali, z którymi rozmawiałem, udało mi się spełnić założone w metodologii pracy cele. Rozmowy uświadomiły mi także zakres problematyki, jaki funkcjonuje współcześnie w mediach internetowych. Polskie portale horyzontalne dokładają swoje rozwiązania, kierujące współczesny świat w stronę sieci semantycznej, co głęboko wpływa i będzie wpływać na przeobrażenia we współczesnym świecie. ZAKOŃCZENIE Dyfuzja treści w trudnym do ontologicznego określenia środowisku Internetu jest fenomenem niezwykle złożonym. W toku pracy próbowałem możliwie logicznie i klarownie ująć wieloaspektowość problemu, opierając się zarówno na teoretycznych rozważaniach pojawiających się w dyskursie naukowym, jak i badaniach własnych. Podjęta przeze mnie próba wielowymiarowych badań, nad implikacjami zjawisk generowanych przez globalną sieć, przyniosła możliwie pełny opis procesów dyfuzji wykorzystywanych przez trzy największe polskie portale internetowe. Pierwsza hipoteza pracy zakładała, że innowacyjne podejście portali do dynamicznie zmieniającej się rzeczywistości technologicznej i medialnej sprawia, że rozwijają one nowe formy i strategie docierania do użytkowników sieci. Tezę udało się częściowo potwierdzić, dzięki wywiadom eksperckim, eksperymentom i analizie danych big data, dotyczących między innymi źródeł ruchu i skuteczności różnych form dyfuzji w sieci. Należy jednak uznać, że pierwszą tezę udało się potwierdzić jedynie częściowo. Portale poszukują bowiem nowych dróg dotarcia z zasobami do użytkowników, jednak w tym celu w większości wykorzystują mechanizmy i sposoby znane już wcześniej. Można zatem powiedzieć, że dyfuzja treści ewoluuje w nowe formy, nie następuje jednak zakładany początkowo „skokowy” wzrost nowych kanałów dyfuzji. Zupełnie nowymi metodami stosowanymi przez portale staje się algorytmizacja i personalizacja stron głównych, notyfikacje oraz powstające aplikacje i nowe wersje stron na urządzenia mobilne. Wzrostu zainteresowania portali dyfuzją treści poprzez wyszukiwarki i media społecznościowe nie można jednak uznać za zupełnie nowe zjawisko. Badania przeprowadzone na potrzeby pracy wykazały, że innowacyjne podejście portali do zmieniającej się rzeczywistości technicznej wymusza ewolucję tradycyjnych form dyfuzji w stronę bardziej przyjazną i bardziej spersonalizowaną dla odbiorców. Stąd prace nad algorytmizacją procesów wydawniczych w największych polskich stronach www. Proces ten można uznać za nową formę dyfuzji, w której algorytmy zastępują człowieka, opierając się na analizie wielkich zbiorów danych dotyczących użytkowników. Trudno przewidzieć skutki szerszego wykorzystywania algorytmów przez największe polskie portale internetowe, z pewnością jednak technologia ta będzie rozwijana, bo daje możliwość lepszego dotarcia z przekazem do odbiorców oraz poszerzenia oferty dla reklamodawców, jednocześnie konstytuując portale, jako nowych aktorów sieci semantycznej. Druga hipoteza pracy zakładała, że trendy i profile w mediach społecznościowych, kreowane przez polskie portale internetowe, zyskują coraz większy zasięg wśród użytkowników. W celu jej sprawdzenia dokonano statystycznej szczegółowej analizy danych dotyczących największych profili portali w mediach społecznościowych. Badania potwierdziły hipotezę. Okazało się, że z czasem profile portali w mediach społecznościowych zyskują coraz więcej użytkowników. Rośnie również zaangażowanie odbiorców w publikowane treści oraz zasięg postów. Portale horyzontalne mają w swojej ofercie sprofilowane pod użytkowników kanały dyfuzji w mediach społecznościowych. Taka personalizacja przynosi korzyści obu stronom, ze względu na lepszy sposób dotarcia z przekazem do zainteresowanych użytkowników. W toku rozprawy przeanalizowano zmiany, jakie zachodzą w portalach na skutek wykorzystywania różnych kanałów dyfuzji treści. Dzięki rozmowom z pracownikami Onetu, Wirtualnej Polski i Interii, udało się uchwycić współczesny obraz portali horyzontalnych oraz ich wysiłek skierowany na zwiększenie liczby użytkowników, poprzez maksymalne wykorzystanie istniejących i wprowadzanie nowych dróg rozprzestrzeniania zasobów. Portale dostosowują swoją ofertę oraz zmieniają struktury redakcji tak, aby ich treści były jak najlepiej widoczne w wyszukiwarkach i mediach społecznościowych. Trzecia, dodatkowa hipoteza pracy zakładała, że nowe kanały dyfuzji treści można wykorzystać do reagowania na zagrożenia i sytuacje kryzysowe w społeczeństwie. Przeprowadzone wywiady oraz badania potwierdziły hipotezę. Nowe formy dyfuzji stosowane przez portale już dziś ostrzegają odbiorców o różnorakich zagrożeniach. Informowanie w ten sposób odbywa się szybciej, niż poprzez kanały rządowe. Portale wykorzystują również nowe kanały dyfuzji do pomocy np. przy poszukiwaniach zaginionych. Dodatkowo w toku pracy nad rozprawą uznałem za celowe, wyprowadzenie propozycji modelu dyfuzji danych informacji i wiedzy, w kontekście zapośredniczenia technologicznego. Takie ujęcie procesu pozwoliło na egzemplifikację specyficznej sytuacji komunikacyjnej, w jakiej znajdują się użytkownicy Internetu. Wpływ big data na prosumentów i ich życie, jest dziś problemem szeroko omawianym w dyskursie naukowym, a proponowany model charakteryzuje techniczny aspekt dyfuzji zasobów w sieci, które potem same stają się kolejnymi danymi, wpływając w znaczącym stopniu na zmiany społeczno-kulturowe i utrwalenie kultury partycypacji. Propozycja modelu pozostaje próbą klarownego opisu wszystkich powyższych zjawisk. Podsumowując, zmiany technologiczne i narodziny sieci semantycznej, wiążą się z powstawaniem nowych dróg dyfuzji treści w Internecie, co implikuje konieczność ewolucji portali horyzontalnych i poszukiwania rozwiązań, które będą bardziej satysfakcjonujące dla finalnych użytkowników. Należy postulować dalsze badania nad dyfuzją, wzbogacają one bowiem wiedzę nad złożonymi procesami komunikacji, występującymi we współczesnym świecie. SUPLEMENT METODOLOGICZNY Poniższy suplement dzieli się na cztery sekcje. W Sekcji 1. przedstawiam zarys scenariusza wywiadu przygotowany na potrzeby planowanych badań jakościowych. Sekcja 2. zawiera pięć autoryzowanych wywiadów z pracownikami Onetu, Wirtualnej Polski oraz Interii, wraz z krótkimi opisami dotyczącymi zajmowanych przez nich stanowisk. W Sekcji 3. prezentuję tabelę z charakterystyką próby badawczej , oraz podstawowymi opisami. Sekcja 4. zawiera tabelę z danymi, które zostały przeze mnie zgromadzone i wykorzystane przy charakterystyce mediów społecznościowych. Sekcja 1. Zarys scenariusza wywiadu Wywiady odbywały się w miejscach neutralnych, wybieranych przez osoby, z którymi prowadzono rozmowy. Wprowadzenie do wywiadu stanowiła informacja o jego celu, poufności, wykorzystaniu w badaniach i możliwości późniejszej autoryzacji. Zarys krótkiego wstępu prezentują poniżej: „Przygotowuję rozprawę doktorską na temat nowych form dyfuzji treści, które wykorzystywane są przez największe polskie portale internetowe. Przez dyfuzję rozumiem wszelkie możliwe środki i kanały rozprzestrzeniania się treści w sieci. Rozmawiałem już na ten temat z wieloma osobami pracującymi w Onecie, Wirtualnej Polsce oraz Interii. Zapewniam pełną poufność i możliwość późniejszej autoryzacji rozmowy oraz opisu Pana/Pani stanowiska, który chciałbym zawrzeć w pracy. Czy zgadza się Pan/Pani na przeprowadzenie rozmowy?” Po uzyskaniu odpowiedzi twierdzącej w różnych konfiguracjach zadawałem założone pytania, dostosowując ich kolejność i formę do rozmówcy. 1. Jaki jest Pana/Pani grade w firmie? 2. Jak długo pracuje Pan/Pani w portalu i na czym polega Pana/Pani praca? 3. Jakie kanały dyfuzji treści wykorzystuje obecnie Pana/Pani portal i jaki jest ich udział w całym ruchu? 4. Czy Pana/Pani portal pracuje nad rozwojem nowych kanałów dyfuzji? 5. Czy strony główne Pana/Pani portalu wydają algorytmy, czy ludzie? 6. Czy Pana/Pani portal wykorzystuje techniki personalizujące dobór treści do potrzeb użytkownika? 7. Jakie działania podejmuje Pana/Pani portal w zakresie pozyskiwania ruchu z wyszukiwarek internetowych? 8. Jakie działania podejmuje Pana/Pani portal w zakresie pozyskiwania ruchu z mediów społecznościowych? 9. Jaki jest wpływ nowych form dyfuzji treści na decyzje wydawnicze podejmowane w Pana/Pani portalu? 10. Nad jakimi nowymi projektami pracuje Pana/Pani portal w zakresie dyfuzji treści? 11. Czy Pana/Pani portal wykorzystuje algorytmy wytwarzające treści? 12. Czy uważa Pan/Pani, że wykorzystywanie różnych, nowych dróg dyfuzji przez portale może pomóc w reagowaniu na zagrożenia występujące we współczesnym świecie? Sekcja 2. Wywiady A) Product manager, Onet Rozmówca z Onetu to kierownik projektów z 8-letnim stażem pracy, odpowiedzialny w firmie m.in. za nadzór i rozwój nowych produktów wydawniczych. 1. Jakie kanały dyfuzji wykorzystuje obecnie portal? Wciąż głównym kanałem dystrybucji treści jest strona główna Onetu, przez którą przechodzi ok. 70-80 proc. ruchu portalu. Ale dostrzegamy zmiany w tym zakresie. Duża część młodych użytkowników w wieku do 30 lat coraz rzadziej korzysta z portali takich jak Onet. Dla nich liczą się teraz media społecznościowe, głównie Facebook, Twitter, Instagram. To wyzwanie przed jakim stoimy: zachęcić młodych użytkowników do wyboru Onetu jako pierwszego źródła informacji. 2. A inne kanały dyfuzji? Na przykład powiadomienia, aplikacje na urządzenia mobilne? Są dla nas ważne. Onet ma genialną aplikację na urządzenia mobilne, która pozwala wysyłać dedykowane pushe (powiadomienia – przyp. red.) osobom zainteresowanym konkretnymi tematami np. sportem. Obserwujemy duży wzrost liczby użytkowników korzystających z pushy, szczególnie w sytuacjach nagłych, niespodziewanych. Wtedy liczba użytkowników odwiedzających stronę po zobaczeniu pusha może być wielokrotnie wyższa, niż liczba użytkowników zalogowanych na stronie. 3. Jakie nowe kanały zostały wytworzone w ostatnich latach, na jakich się skupiacie? Ostatni czas to przede wszystkim pushe, choć wykorzystujemy je od kilku lat. Dopiero teraz nasi użytkownicy przyzwyczajają się do tego sposobu komunikacji i chętniej z niego korzystają. Mamy też newsletter Onetu, który jest nowym produktem z którym staramy dotrzeć się do użytkownika. Stawiamy też na podcasty, które publikujemy m.in. w mediach społecznościowych i w wersji mobilnej strony głównej. Liczymy, że naszym użytkownikom się to spodoba. 4. Jaki procent udziału w ruchu mają poszczególne kanały dyfuzji? Jak wspominałem wciąż najważniejszym źródłem ruchu portalu pozostaje strona główna, która generuje ponad 70 proc. ruchu. Poza tym ważny jest dla nas ruch z Google, Facebooka i pushy. 5. Jak duże znaczenie ma kwestia ruchu z wyszukiwarek? Bardzo poważnie traktujemy kwestie optymalizacji artykułów pod kątem wyszukiwania w Google. To dla nas ważne, bo ruch z wyszukiwarek stanowi nawet kilkanaście procent ruchu w ogóle. Dzięki dobrym praktykom w zakresie SEO Onet zyskuje setki tysięcy unikalnych użytkowników, którzy w innym przypadku prawdopodobnie nie trafiliby na naszą stronę. Z moich informacji wynika, że podobne praktyki i spojrzenie na kwestie optymalizacji panują we wszystkich największych portalach w Polsce. Nasze działania w tym zakresie są wielopłaszczyznowe. Skupiają się na odpowiednich rozwiązaniach technologicznych m.in. nad poprawą wydajności serwerów czy odpowiednio skonstruowanym kodzie strony oraz nad działaniami redakcyjnymi, w tym licznymi szkoleniami z zakresu SEO dla dziennikarzy i redaktorów. Poprawne skonstruowanie treści, jej unikatowość i odpowiednie eksponowanie fraz w tytułach i artykułach przynosi świetne wyniki. 6. Jak wygląda kwestia automatyzacji i personalizacji w Onecie? Automatyzacja i personalizacja jest coraz szerzej stosowana w niemal wszystkich sekcjach strony głównej Onetu. Myślę, że w 2020 roku cała strona będzie już wydawana automatycznie. Nasze algorytmy wybierają treści dostosowane do zainteresowań użytkownika w oparciu o to, w co wcześniej klikał. Wciąż trwają prace nad udoskonalaniem mechanizmu, nie chcemy wylać dziecka z kąpielą i musimy znaleźć jakiś balans między automatyzacją, personalizacją a treściami istotnymi dla użytkowników, które musza być widoczne zawsze. 7. Jak duży wpływ na decyzje wydawnicze mają nowe formy dyfuzji treści? Myślę, że ogromny. Niektóre formy jak na przykład listikale czy quizy są treściami typowymi dla mediów społecznościowych. Zwiększenie ich liczby jest decyzją wydawniczą, na którą wpływa to że musimy walczyć o użytkownika także w social mediach. Podobnie z tematami SEO. W Onecie działa cały zespół SEO wspomagany przez dedykowanych redaktorów, którzy wytwarzają treści tylko dla wyszukiwarek. Walka o użytkownika to też aplikacje mobilne i wersja mobilna strony. Dostosowujemy proces wydawniczy na potrzeby użytkowników mobilnych. Specjalny wydawca dba tylko o te kwestie. Ważne jest dla nas także budowanie zaufania do portalu i jego przekazu. Stąd na przykład tegoroczna kampania reklamowa „Wybieram Prawdę”, której celem jest m.in. budowa wizerunku wiarygodnej i sprawdzonej marki. 8. Nad jakimi innymi innowacjami pracujecie? Skupiamy się na polepszeniu procesów automatyzacji i personalizacji w wydawaniu treści. Wydaje się, że to zadanie na całe lata. Chcemy żeby konkretnie sprofilowani użytkownicy otrzymywali na stronie te treści, które będą ich interesować. W ten sposób nie będzie jednej statycznej wersji strony, ale dziesiątki dynamicznych, dostosowanych do konkretnych grup użytkowników, co niejako „poszerza” samą stronę główną. Mogę sobie wyobrazić sytuację, gdy w przyszłości każdy użytkownik otrzyma swoją własną wersję strony. 9. Jakie działania podejmowane są przez portal w kwestii mediów społecznościowych? Pracujemy nad automatyzacją w wydawaniu profili w mediach społecznościowych. Już teraz taka możliwość jest stosowana na niektórych profilach. Po zaznaczeniu odpowiednich opcji opublikowany na stronie materiał wyświetla się od razu na Facebooku czy Twitterze. Pozwala to zaoszczędzić czas. Podejmujemy też próby lepszego zrozumienia odbiorców na takich portalach. 10. Czy profile w mediach społecznościowych mają coraz większe zasięgi? Tak, choć z zastrzeżeniem, że wielu użytkowników profili w mediach społecznościowych jest nieaktywnych. To duże wyzwanie poznać i zrozumieć w jaki sposób dyfundują treści w mediach społecznościowych. Na razie nie mamy na to pomysłu. 11. Czy wykorzystujecie algorytmy wytwarzające treści? Tej informacji nie mogę ujawnić. Powiem tylko że trwają prace nad takimi rozwiązaniami. 12. Czy nowe kanały dyfuzji mogą pomóc w szybszym reagowaniu na zagrożenia? Zdecydowanie tak. Już dzisiaj się to odbywa. Dzięki wysyłanym przez nas pushom informacje o zagrożeniach docierają bezpośrednio do osób, którym może coś grozić np. powódź. Taki kanał dyfuzji powinien jednak zostać lepiej skoordynowany z rządem. Jednak na razie chyba brakuje zainteresowania takimi rozwiązaniami. B) Kierownik projektów, Interia Rozmówca z Interii to kierownik projektów, który posiada 5-letni staż na tym stanowisku. Wcześniej osoba ta pracowała także w innych mediach elektronicznych. 1. Jakie kanały dyfuzji wykorzystuje obecnie portal? Media społecznościowe, powiadomienia, e-mailing. To trzy główne jak sądzę. 2. Jakie nowe kanały zostały wytworzone w ostatnich latach, na jakich się skupiacie? Skupiamy się na rozwoju istniejących produktów i odpowiedzi na zapotrzebowania użytkowników. Na przykład w zeszłym roku unowocześniliśmy należący do Interii serwis Decoria, dając użytkownikom możliwość lepszego personalizowania własnych profili. To także odpowiedź na zapotrzebowanie reklamodawców, którzy chcą coraz lepiej spersonalizowane grupy docelowe. Więcej możliwości personalizacji znajduje się też w naszej poczcie. 3. Jaki procent udziału w ruchu mają poszczególne kanały dyfuzji? Niewielki. Według mojej wiedzy około 70-80 proc. ruchu pochodzi wciąż ze strony głównej w wersji dekstopowej i mobilnej. Przy czym ruch ten dzieli się po równo na komputery i urządzenia mobilne. Myślę, że ok. 15 proc. to ruch z Google, a kolejne 5 proc. to ruch z mediów społecznościowych. 4. Jak w Interii wyglądają kwestie optymalizacji pod kątem wyszukiwarek internetowych? Ruch z Google jest dla nas bardzo ważny. Dlatego w redakcjach trwają szkolenia SEO, pracujemy też nad kwestiami technicznymi. Skupiamy się na odpowiednim doborze fraz kluczowych, staramy się też kreować trendy w mediach społecznościowych. W działaniach wykorzystujemy narzędzia takie jak Google Trends. 5. Jak wygląda kwestia automatyzacji w podawaniu treści w Interii? Nie mogę ujawnić szczegółów. Trwają prace nad lepszą personalizacją strony dla użytkowników oraz reklamodawców. Automatyzacja to złożony proces, który wymaga czasu i dużych nakładów finansowych. 6. Czy Interia planuje wdrożyć automatyzację? Tak, są takie plany. Nic więcej nie mogę na ten temat powiedzieć. 7. Jakie działania podejmuje portal Interia w kwestii aplikacji mobilnych? Aplikacje mobilne są dla nas bardzo ważne. Rok do roku rośnie liczba użytkowników korzystających ze smartfonów i innych urządzeń przenośnych. Już teraz ruch mobilny bywa wyższy od ruchu z komputerów stacjonarnych. Dlatego rozwój aplikacji mobilnych i mobilnej wersji naszej strony to dla portalu priorytet. 8. Jakie działania podejmowane są przez portal w kwestii mediów społecznościowych? Trwa intensywny rozwój profili w mediach społecznościowych. To trudny kanał dyfuzji treści, bo wielu użytkowników nie chce się angażować, a tylko ogląda wiadomości w streamie na stronie głównej Facebooka. Dużym wyzwaniem jest też fakt, że sam portal społecznościowy ucina zasięgi wiadomościom i nie wyświetla ich wszystkim użytkownikom. Dlatego docieranie do użytkowników z odpowiednimi treściami staje się dla nas sprawą kluczową. 9. Jak duży wpływ na decyzje wydawnicze mają nowe kanały dyfuzji treści? Mają ogromny wpływ. Wszystkie decyzje podejmowane są, by dotrzeć do jak największej liczby użytkowników. Nowe technologie zmuszają nas do zmiany sposobu wydawania strony oraz sposobu naszego myślenia o mediach. Dzisiaj nie wystarczy mieć świetnych dziennikarzy, ale materiał trzeba umieć rozdystrybuować w odpowiedni sposób: powiadomieniami, listami mailingowymi, odpowiednimi kanałami w portalach społecznościowych. Wymaga to dużych zmian w redakcjach i całym procesie wydawania treści. 10. Czy wykorzystujecie algorytmy wytwarzające treści? W chwili obecnej nie. Ale trwają rozważania nad takim rozwiązaniem. Wiem, że podobne algorytmy stosują inne redakcje. 11. Czy nowe kanały dyfuzji mogą pomóc w szybszym reagowaniu na zagrożenia? Myślę, że badania nad dyfuzją treści w mediach społecznościowych, mogą pomóc w lepszym wykrywaniu zagrożeń, przestępców itp. C) Product manager, Wirtualna Polska Rozmówca z Wirtualnej Polski to product menager z 12-letnim doświadczeniem w mediach elektronicznych, który pracował także jako redaktor i wydawca. 1. Jakie kanały dyfuzji wykorzystuje obecnie portal? Strona główna portalu Wirtualna Polska jest najchętniej odwiedzaną przez użytkowników platformą dyfuzji. Stawiamy też na aplikacje mobilne, takie jak WP Blast. Ważnymi kanałami dyfuzji są dla nas Telewizja WP, radio Open FM, kanały w social mediach, e-mailing oraz content SEO. 2. Czym jest wspomniany WP Blast? To nowy projekt naszej grupy, który ma dotrzeć z informacjami do najmłodszych użytkowników. Docelowo dzięki nowej aplikacji na smartfony młodzież (ale i dorośli) będą mogli w znajomy dla nich sposób odbierać najważniejsze wiadomości. Ma się to dziać przy pomocy znanych młodym stuknięć i przesunięć w aplikacji mobilnej. Także struktura przedstawianego newsa będzie inna od znanej współcześnie. Użytkownicy najpierw poznają treść samej informacji, jeśli ich ona zainteresuje będą mogli przeczytać o skutkach danego wydarzenia, aby na końcu, w trzeciej „odsłonie” informacji dowiedzieć się jak wpływa ona na życie ludzi. Projekt WP Blast jest w dużej części finansowany przez Google. 3. Jaką część ruchu generują różne kanały dyfuzji, które Pan wymienił? Nie mogę podać konkretnych danych, bo obowiązuje mnie tajemnica zawodowa. Mogę jednak powiedzieć, że obserwujemy widoczne spadki w odwiedzinach strony głównej portalu. Z ogólnie dostępnych danych wynika, że wszystkie portale odnotowują takie spadki. Dlatego szukamy nowych źródeł dyfuzji treści, które pozwolą nam zrównoważyć spadki. Jednym z ważniejszych jest SEO, ale też możliwość rozprowadzania naszych produkcji w telewizji internetowej, co przekłada się na lepszą monetyzację produktów. 4. Jakie podejmujecie działania w kwestii optymalizacji treści pod kątem wyszukiwarek? Mamy rozbudowany dział SEO zajmujący się wdrażaniem nowych rozwiązań technologicznych zgodnie ze standardami wyznaczanymi przez Google. Duże znaczenie ma też praca redaktorów, którzy tworzą treści wykorzystując umiejętnie odpowiednie frazy kluczowe. 5. Co z urządzeniami mobilnymi? Ruch z urządzeń mobilnych jest równoważny z ruchem desktopowym (z komputerów stacjonarnych – przyp. red.). Widać wyraźny trend wzrostowy dla ruchu mobilnego. Dlatego inwestujemy w aplikacje takie jak WP Blast, czy powiadomienia tematyczne wysyłane na komórki naszych użytkowników. Cały czas pracujemy nad udoskonaleniem aplikacji mobilnych w taki sposób, aby były one jak najbardziej przyjazne dla użytkowników. 6. Czy Wirtualna Polska dostarcza treści spersonalizowane i w sposób zautomatyzowany? Jak wejdzie pan na stronę WP.pl z kilku urządzeń zobaczy Pan różnicę w wyglądzie strony głównej portalu. W chwili obecnej stronę główną wydają w większości algorytmy. 7. W jaki sposób algorytmy dobierają treści? Nie mogę odpowiedzieć szczegółowo na to pytanie ze względu na tajemnicę zawodową. Wiedzą powszechną jest, że wykorzystują one pliki cookie, informacje na temat liczby użytkowników zainteresowanych newsem oraz czas trwania sesji. W oparciu o te oraz inne parametry w tym także odnoszące się do treści wiadomości serwowana jest wersja strony dla konkretnego odbiorcy. 8. Dlaczego czas trwania sesji? Badania Gemius PBI stawiają coraz większy nacisk na czas jaki użytkownicy spędzają w poszczególnych artykułach i na stronach internetowych. Grupa WP.pl jest zdecydowanym liderem jeśli chodzi o portale horyzontalne i czas spędzony przez użytkowników na naszych stronach. Bardziej angażujące treści sprawiają, że viewability (widoczność reklamy dla odbiorców – przyp. red.) wyświetlanych przez nas reklam jest większa, czyli możemy je sprzedawać drożej. 9. Nad jakimi nowymi projektami pracujecie? Cały czas udoskonalamy proces wydawniczy i staramy się zaproponować naszym użytkownikom jak najbardziej angażujące i różnorodne treści. Portal O2.pl należący do naszej grupy, tworzy często zabawne, często straszne informacje, które interesują użytkowników Facebooka. Telewizja WP tworzy mocne treści o charakterze politycznym, dzięki którym jesteśmy zauważani w innych mediach. Mocny dział SEO pracuje nad wykorzystaniem trendów pojawiających się w wyszukiwarkach. Zależy nam również na widoczności w aplikacjach newsowych takich jak Google News, Squid, Feedly, MSN. 10. Czy wykorzystujecie algorytmy wytwarzające treści? Nie korzystamy z takich rozwiązań, choć mamy świadomość że one istnieją. Wierzymy jednak, że algorytm nigdy nie zastąpi człowieka w pisaniu dobrych, dziennikarskich materiałów. Jedyną możliwość w wykorzystywaniu botów piszących teksty widzimy w przypadku materiałów tworzonych pod wyszukiwarki. Jednak jak na razie z mojej wiedzy wynika, że nie podjęto działań w kierunku wykorzystania ich w WP. 11. Czy nowe kanały dyfuzji mogą pomóc w szybszym reagowaniu na zagrożenia? Zdecydowanie tak. Już dzisiaj informujemy naszych użytkowników szybciej i skuteczniej o zbliżających się zagrożeniach, niż wysyłane przez Rządowe Centrum Bezpieczeństwa SMS-y do Polaków. Podobnie rzecz ma się z Child Alert. Portale internetowe szybciej otrzymują i przekazują informacje, niż portale rządowe. D) Programista, Onet Rozmówcą jest programista z 9-letnim stażem pracy, od trzech lat pracujących nad projektami związanymi z algorytmizacją i personalizacją wydawania treści w Onecie. Wcześniej rozmówca pracował nad projektami automatyzacyjnymi w zakładach z branży elektromechanicznej oraz spożywczej. 1. Jak wyglądają prace nad algorytmizacją wydawania i personalizacją prezentowania treści w Onecie i innych firmach medialnych? Personalizacja wydawania treści działa już Onecie i Wirtualnej Polsce. Teraz trwają prace nad jej udoskonalaniem. Polegają one na zwiększeniu liczby segmentów odbiorców zgodnie z ich zainteresowaniami. Pracujemy nad rozszerzeniem personalizacji do 50 współczynników w oparciu o tematykę i wcześniejsze wybory naszych użytkowników. 2. Jakie współczynniki brane są pod uwagę przy personalizacji? Głównie tematyka wiadomości, które użytkownik czytał wcześniej. Znaczenie ma czas spędzony na stronie, współczynnik odrzuceń, wybory innych użytkowników zaklasyfikowanych jako osoby interesujące się podobną tematyką. O innych czynnikach nie mogę nic powiedzieć. 3. Dlaczego? Szczegóły dotyczące tworzonych przez nas rozwiązań objęte są tajemnicą firmy. 4. Jak wielu użytkowników objętych jest personalizacją? Czy mogą oni z niej zrezygnować? Użytkownicy nie mogą „wyłączyć” personalizacji. Rozwiązania takie wprowadzono dla wszystkich odbiorców. 5. Czy wykorzystujecie algorytmy generujące treści? Takie algorytmy istnieją, nie są jednak na tyle dobre, żeby mówić o ich szerokim zastosowaniu. Przykładem jest program tworzący automatyczną prognozę pogody. Takie materiały można łatwo znaleźć w sieci. 6. Jakie kanały dyfuzji treści są dzisiaj najważniejsze dla portali? Strony główne, które zostały „rozszerzone” dzięki wprowadzeniu personalizacji wciąż generują największy ruch. Poza tym ważny jest ruch z wyszukiwarek i mediów społecznościowych. Nowym kanałem dyfuzji nazwałbym powiadomienia. 7. Jakie działania podejmuje One w celu optymalizacji strony pod kątem wyszukiwarek? Nie zajmuję się tymi tematami. W Onecie jest specjalny zespół programistów, który dedykowany jest do SEO. Z nieoficjalnych informacji wiem, że nieustannie trwają prace nad upraszczaniem kodów stron tak, aby były one przyjaźniejsze dla Google. 8. Czy można skutecznie wykorzystać powiadomienia w sytuacjach zagrażających zdrowiu i życiu ludzi? Zdecydowanie tak. Powiadomienia są bardzo popularne wśród użytkowników, którzy dowiadują się z nich o najważniejszych wydarzeniach dziejących się teraz. Media mają możliwość szybszego reagowania na sytuacje kryzysowe, niż instytucje rządowe. Powiadomienia mogą też pomóc np. w przypadku poszukiwań osób zaginionych lub obław na przestępców. E) Programista Wirtualna Polska Rozmówca jest programistą pracującym w Wirtualnej Polsce od trzech lat. Wcześniej zajmował się tworzeniem stron WWW oraz tematyką ich optymalizacji pod kątem wyszukiwarek internetowych. 1. Jak wyglądają prace nad algorytmizacją wydawania i personalizacją prezentowania treści w Wirtualnej Polsce i innych korporacjach medialnych? Nie wiem jak sprawa wygląda w innych firmach, ale w Wirtualnej Polsce działają algorytmy, które dostarczają użytkownikom treści na podstawie ich wcześniejszych kliknięć. Upraszczając jeśli ktoś interesuje się sportem, klika w wiele linków o tematyce sportowej, to po jakimś czasie nasz algorytm „wyrzuca” mu na stronie znacznie więcej treści o takiej tematyce. Algorytm działa nawet „głębiej”, bo analizuje grupę wszystkich użytkowników, którzy interesują się sportem i na podstawie wyborów dokonywanych przez większość osób z tej grupy wybiera artykuły, które potem pokazuje innym osobom zainteresowanym sportem. 2. Jak wielka grupa użytkowników podlega personalizacji? Wszyscy użytkownicy. Wydawcy i redaktorzy w tym momencie odpowiadają już tylko za dobór tytułów. 3. Jeśli dobrze rozumiem wszystkie treści publikowane na portalu mogą się wyświetlić różnym użytkownikom w zależności od ich zainteresowań? Pracujemy nad takim rozwiązaniem i wciąż je udoskonalamy. 4. Czy Wirtualna Polska wykorzystuje algorytmy automatycznie generujące treści? Nie wiem nic o podobnych rozwiązaniach. 5. Jakie kanały dyfuzji są dziś najważniejsze dla portali? Strony główne, wyszukiwarki, media społecznościowe, e-mailing, linkowanie z innych stron, aplikacje mobilne i pushe. Z tego co się orientuję generują one ponad 95% ruchu Wirtualnej Polski. 6. Jakie działania podejmuje Wirtualna Polska w zakresie SEO? Optymalizacji treści na potrzeby wyszukiwarek jest jednym z naszych priorytetów. Większość z nas uważa, że poza zwiększeniem roli algorytmów, wyszukiwarki to jedyne źródło, które może przynieść nam jeszcze jakieś znaczące wzrosty w ruchu. Dlatego podejmowane są działania programistyczne wspierające tworzenie przyjaznego środowiska wyszukiwania dla robotów Google oraz działania redakcyjne, które mają odpowiednio przygotować treść pod kątem SEO. Nalezą do nich m.in. wyszukiwanie fraz kluczowych oraz dodawanie ich do artykułów. To mechanizmy dobrze znane wszystkim projektantom stron internetowych. 7. Czy nowe kanały dyfuzji można wykorzystać w rożnych zagrożeniach i sytuacjach kryzysowych? To dzieje się na naszych oczach. Dotarcie z informacją do użytkowników z wykorzystaniem powiadomień na urządzenia mobilne, e-mailingu, stron głównych, mediów społecznościowych jest faktem. Dzięki temu ludzie oszczędzają czas i pieniądze, są świadomi ewentualnych nadciągających zagrożeń, mogą pomóc władzom, ale też innym osobom potrzebującym pomocy. Różne kanały dyfuzji są w tym niezastąpione i znacznie ułatwiają wszystkim życie. Sekcja 3. Charakterystyka próby badawczej Wiek Płeć Grade Firma Forma 1. 32 M 17 Onet Osobisty 2. 33 M 16 Onet Osobisty 3. 43 M 15 Onet Osobisty 4. 35 M 16 Interia Osobisty 5. 34 M 17 Interia Osobisty 6. 40 M 17 Interia Osobisty 7. 41 K 16 Interia Osobisty 8. 43 K 16 Interia Osobisty 9. 28 M 16 Onet Osobisty 10. 37 M 16 Onet Osobisty 11. 43 M 17 Onet Osobisty 12. 40 K 15 Onet Osobisty 13. 35 M 17 WP Osobisty 14. 26 M 16 WP Osobisty 15. 29 M 16 WP Osobisty 16. 37 K 16 WP Osobisty 17. 33 M 16 WP Osobisty 18. 28 K 18 Onet Osobisty 19. 33 M 16 Onet Osobisty 20. 40 M 16 Onet Osobisty 21. 41 M 16 Onet Osobisty 22. 37 M 17 Onet Osobisty 23. 37 K 17 Onet Osobisty 24. 33 K 16 Onet Osobisty 25. 27 M 16 Onet Osobisty 26. 43 M 17 Interia Osobisty 27. 40 M 18 Interia Osobisty 28. 42 M 18 Interia Osobisty 29. 33 K 16 WP Osobisty 30. 35 M 16 WP Osobisty Sekcja 4. Dane dot. profili portali w mediach społecznościowych. Stan na 26 lipca 2019 roku. Profil Liczba polubień Liczba obserwujących ONET Onet 1 107 119 1 055 709 Onet Sport 775 982 753 686 Onet Styl Życia 552 793 532 397 Onet 100 International 424 983 452 248 Onet Wiadomości 405 679 401 781 Onet Zapytaj 339 339 327 014 Onet 100 271 734 289 811 Onet Podróże 202 404 193 793 Onet Kultura 186 324 183 213 Onet Gotowanie 171 106 170 217 Onet Rano 59 044 76 964 Onet Kraków 39 477 39 551 Medonet 36 726 36 582 Onet Program TV 26 570 26 551 Onet Śląskie 20 977 21 131 Onet Warszawa 20 094 20 312 Onet Poznań 16 602 16 683 Onet Rzeszów 15 913 15 892 Onet Szczecin 14 425 14 729 Onet Lubuskie 13 533 13 576 Onet Łódź 13 170 13 213 Onet Trójmiasto 11 229 13 637 Onet Facet 11 057 10 591 Onet Wrocław 7898 7917 Onet Live 4333 7698 Onet Kujawsko-pomorskie 6968 6984 Onet Olsztyn 5460 5461 Onet Kielce 5098 5196 Onet Religia 4699 4645 Onet Lublin 4741 5096 Onet Quizy 3851 4372 Onet Białystok 3113 3115 Onet Opole 1930 1965 Onet Audio 574 628 WIRTUALNA POLSKA WP Wiadomości 648 834 638 303 Wirtualna Polska 636 491 636 734 WP SportoweFakty 640 559 622 489 WP Kobieta 186 544 184 370 WP abcZdrowie 150 767 150 106 WP Fitness 118 189 117 685 Telewizja WP 115 012 115 999 WP Finanse 114 429 111 584 WP Kuchnia 109 767 109 613 WP Żużel 100 089 98 073 WP Gwiazdy 65 417 63 069 WP Dzieci 91 932 89 829 WP Tech 90 868 88 435 WP Turystyka 72 586 70 422 WP Film 52 751 50 935 WP Parenting 49 557 49 827 WP Pilot 41 670 41 437 WP Moto 36 078 36 074 WP Magazyn Opinii 34 708 34 253 WP Facet 21 971 20 973 WP Książki 20 482 20 456 WP Teleshow 17 451 16 660 WP Gry 17 228 17 032 WP Horoskopy 11 615 11 356 WP Dom 6989 6934 WP Dziejesie 1923 1948 INTERIA Interia 101 620 100 755 Interia Fakty 175 597 170 930 Interia Moto 75 471 72 842 Interia Sport 73 065 72 089 Interia Muzyka 70 333 68 026 Interia Kobieta 44 915 44 746 Interia Facet 23 811 23 183 Interia Tech 23 097 22 502 Interia Gry 16 650 16 310 Interia Mam Dziecko 10 753 10 738 Interia Film 10 684 10 503 Interia Matura 7458 7194 Interia Forum 3738 3641 Interia Po Godzinach 1228 1254 WYKAZ ILUSTRACJI, TABEL I WYKRESÓW Ilustracje Ilustracja 1. Hierarchia DIKW……………………………………………………… 18 Ilustracja 2. Model transmisji sygnału C.E. Shannona………………………………19 Ilustracja 3. Zależności między danymi, informacją i wiedzą……………………… 29 Ilustracja 4. Propozycja modelu dyfuzji danych, informacji i wiedzy w sieci semantycznej, wykorzystującej potencjał nowych technologii i big data……………61 Ilustracja 5. Interakcyjny model komunikacji, zachodzącej przy wykorzystaniu zapośredniczenia technologicznego w środowisku Internetu………………………..69 Ilustracja 6. Fragment strony głównej portalu Onet w wersji na urządzenia stacjonarne…………………………………………………………………………..79 Ilustracja 7. Fragment strony głównej portalu Wirtualna Polska w wersji na urządzenia stacjonarne…………………………………………………………………………..80 Ilustracja 8. Fragment strony głównej portalu Interia w wersji na urządzenia stacjonarne…………………………………………………………………………..81 Ilustracja 9. Górne części mobilnych wersji stron głównych Onetu, Interii i Wirtualnej Polski………………………………………………………………………………...83 Ilustracja 10. Fragment ogólnego raportu wygenerowanego dla portalu Onet przez algorytm SimilarWeb………………………………………………………………..94 Ilustracja 11. Zrzut ekranu z częścią portalu Onet przy zastosowaniu standardowych ustawień przeglądarki (lewa strona) oraz przy wyłączonej możliwości korzystania z plików cookie (prawa strona)………………………………………………………116 Ilustracja 12. Zrzut ekranu z częścią portalu WP przy zastosowaniu standardowych ustawień przeglądarki (lewa strona) oraz przy wyłączonej możliwości korzystania z plików cookie (prawa strona)………………………………………………………117 Ilustracja 13. Dynamika występowania i spadku popularności trendów wyszukiwania w Google…………………………………………………………………………...131 Ilustracja 14. Strona główna Google Trends……………………………………….131 Ilustracja 15. Frazy podobne dla słowa „Uniwersytet Jagielloński” ustalone za pomocą autouzupełniania Google…………………………………………………………...141 Ilustracja 16. Wyniki wyszukiwania frazy „wybory” w Wiadomościach Google….146 Ilustracja 17. Przykładowy wygląd klikmapy……………………………………...162 Ilustracja 18. Schemat przedstawiający metodologię badań PBI Gemius………….166 Ilustracja 19. Przykładowa mapa dyfuzji wygenerowana dzięki programowi NETINF…………………………………………………………………………....176 Ilustracja 20. Wizualizacja mapy dyfuzji jednego artykułów portalu Buzzfeed…..177 Ilustracja 21. Wygląd sekcji „Media mówią”, którą znaleźć można w treściach zamieszczanych w portalu Onet……………………………………………………206 Tabele Tabela 1. Zakres analizy problemów badawczych w zaproponowanych rodzajach dyfuzji………………………………………………..……………………………...16 Tabela 2. Porównanie roli nadawcy i odbiorcy w poszczególnych mediach…………43 Tabela 3. Charakterystyka różnic między WEB 1.0 i WEB 2.0 wg Toma O’Reilly’ego………………………………………………………………………...44 Tabela 4. Charakterystyczne cechy WEB 1.0, WEB 2.0 i WEB 3.0………………..51 Tabela 5. Drabina aktywności online wg Charlene Li i Josha Bernotta……………...57 Tabela 6. Porównanie możliwości prezentowania treści przez media tradycyjne i portale internetowe…………………..……………………………………………..74 Tabela 7. Liczba odwiedzin domen Onet.pl, WP.pl, Interia.pl………………………77 Tabela 8. Porównanie działów tematycznych w Portalach Onet, Wirtualna Polska i Interia………………………………………………………………………………85 Tabela 9. Piętnaście największych serwisów wśród mężczyzn i kobiet w styczniu 2019r………………………………………………………………………………...89 Tabela 10. Najważniejsze kanały dyfuzji treści Onetu WP i Interii od lipca do września (I kwartał) oraz od października do grudnia (II kwartał) 2019 roku………………...102 Tabela 11. Dziesięć największych źródeł ruchu na portalach Onet, WP i Interia w okresie od lipca do września 2019 roku…………………………………………..104 Tabela 12. Dziesięć największych źródeł ruchu na portalach Onet, WP i Interia w okresie od października do grudnia 2019 roku…………………………………...105 Tabela 13. Liczba aktywnych linków na portalach Onet, WP i Interia w grudniu 2009, grudniu 2014 oraz grudniu 2019 roku………………………………………………114 Tabela 14. Różnice w pozycji i doborze prezentowanych treści na stronach głównych portali Onet i Wirtualna Polska w dniach 2-8.12.19r……………………………….118 Tabela 15. Zestawienie wyników eksperymentu porównującego zawartość stron głównych portali Onet i WP w trybie incognito oraz trybie standardowej pracy.....121 Tabela 16. Procentowy udział ruchu generowanego przez różne wyszukiwarki w portalach Onet, WP i Interia w okresie od lipca do września 2019 roku…………..128 Tabela 17. Najpopularniejsze trendy wyszukiwania w Polsce w 2018 i 2019 roku…133 Tabela 18. (część A) Analiza wybranych profili portali w okresie od 1 lipca 2018 do 30 czerwca 2019 roku………………………………………………………………151 Tabela 18. (część B) Analiza wybranych profili portali w okresie od 8 lipca do 21 lipca 2019 roku……………...…………………………………………………..151 Tabela 19. Przegląd danych uzyskiwanych dzięki badaniom site-cetric…………….160 Tabela 20. Podział stron i aplikacji internetowych ze względu na ich funkcje…….168 Tabela 21. Charakterystyka trzech podejść badawczych w analityce Internetu…….172 Tabela 22. Warunki propagacji memów kulturowych w kontekście dyfuzji treści w Internecie………………………………………………………………………...179 Tabela 23. Porównanie modeli badań jakościowych: emocjonalizmu i konstrukcjonizmu…………………………………………………………………191 Tabela 24. Średni czas trwania sesji na stronach Onet, WP i Interia w okresie od lipca do września 2019 roku……………………………………………………………...208 Wykresy Wykres 1. Porównanie liczby użytkowników Internetu w krajach Unii Europejskiej w roku 2012 i roku 2017 (w %)………………………………………………………...40 Wykres 2. Częstotliwość korzystania z Internetu w krajach Unii Europejskiej (% udział użytkowników w wieku od 16 do 74 lat)………………………………….41 Wykres 3. Procentowy udział ruchu generowanym z komputerów stacjonarnych i urządzeń mobilnych w okresie wrzesień-grudzień 2019 roku……………………….84 Wykres 4. Wiek użytkowników trzech największych portali horyzontalnych w Polsce. ……………………………………………………………………………………….86 Wykres 5. Wiek osób korzystających z największych polskich portali w porównaniu do wieku wszystkich użytkowników Internetu w Polsce…………………………….87 Wykres 6. Płeć użytkowników trzech największych portali horyzontalnych w Polsce ……………………………………………………………………………………….88 Wykres 7. Poziom zaangażowania użytkowników Onetu, Interii i Wirtualnej Polski w treści publikowane na stronach………………………………………………………91 Wykres 8. Najpopularniejsze kanały dyfuzji treści na świecie………………………97 Wykres 9. Wyniki eksperymentu pokazującego zależność między ruchem katalogowanym jako bezpośredni a ruchem generowanym poprzez wyszukiwarki..100 Wykres 10. Zaufanie do wyszukiwarek, tradycyjnych mediów i mediów społecznościowych w Europie w 2019 roku……………………………………….126 Wykres 11. Ilustracja „siły trendu” na przykładzie hasła „Jan Paweł II”…………..135 Wykres 12. Porównanie siły trendu haseł „wybory” (czerwona linia) oraz „wybory parlamentarne” (niebieska linia) w ujęciu rocznym………………………………..135 Wykres 13. Porównanie siły trendu na hasło „bieganie” w województwach lubuskim (niebieska linia) i mazowieckim (czerwona linia) w ciągu ostatniego roku……….136 Wykres 14. Trendy cykliczne: porównanie fraz „mistrzostwa świata” (czerwona linia) i „WOŚP” (niebieska linia) od 2004 roku w Polsce………………………………..138 Wykres 15. Trendy stałe: porównanie wyszukiwania fraz „dzieci” (czerwona linia) i „Warszawa” (niebieska linia) od 2004 roku w Polsce……………………………..139 Wykres 16. Porównanie siły fraz: „pogoda”, „prognoza pogody” i pogoda dla Polski” w ciągu ostatniego roku w Polsce………………………………………………….140 Wykres 17. Liczba użytkowników przekierowanych z Google do portali Onet, WP i Interia we wrześniu 2019 roku……………………………………………………..145 Wykres 18. Największe kanały dyfuzji w mediach społecznościowych, generujące ruch na portalach informacyjnych od lipca do września 2019 roku………………...147 Wykres 19. Różnica w liczbie subskrybentów profili ogólnych, informacyjnych i sportowych Onetu, WP i Interii na Facebooku……………………………………149 Wykres 19. Dziesięć najpopularniejszych stron w polskim Internecie we wrześniu 2019 roku oraz ich procentowy udział w ruchu w sieci…………………………….205 Wykres 20. Liczba notyfikacji ogólnych wysyłanych w dniach 1-7.09.2019 roku przez portale Onet i WP…………………………………………………………………..208 BIBLIOGRAFIA 1. Ackoff R.L., From Data to Wisdom, „Journal of Applies Systems Analysis”, Nr 16, 1989. 2. Anderson R.M., May R.M., Infectious Diseases of Humans, Wyd. Oxford University Press, Oxfrod 1991. 3. Antoszewski A., Herbut R., Słownik politologii, Wydawnictwo Alta2, Wrocław 1995. 4. Arbiszewski K, Teoria Aktora-Sieci jako teoria mediów i komunikacji, M. Graszewicz, J. Jastrzębski (red.), „Teorie komunikacji i mediów vol. 1”, Oficyna Wydawnicza Atut, Wrocław 2009. 5. Azuma R.T., A Survey of Augmented Reality, [w]: „Presence: Teleoperators and Virtual Environments”, nr 4, 1997. 6. Babbie E., Badania społeczne w praktyce, Wydawnictwo Naukowe PWN, Warszawa 2003. 7. Bakshy E., Rosenn I., Marlow C., Adamic L., The role of social networks in information diffusion, „WWW ’12”, s. 519–528, 2012. 8. Baladron C., Aguiar J., Carro B., Goix L.W., Martin A.L., Falcarin P., Sienel J., User-Centric Future Internet and Telecommunication Services, G. Tselentis (red.), „Towards the Future Internet: A European Research Perspective”, Wyd. Ios Press, Amsterdam 2009. 9. Barabas M., Fonoholizm zagrożeniem dla rozwoju dzieci i młodzieży, „Edukacja – Technika – Informatyka”, nr 2/24, Wyd. Uniwersytetu rzeszowskiego, Rzeszów 2018. 10. Batell, J., The Search: How Google and Its Rivals Re-wrote the Rules of Business and Transformed Our Culture, Nicholas Brealey Publishing, Londyn 2006. 11. Banaś M., Transgresja i dyfuzja, czyli o tym dlaczego nauki humanistyczne sięgają do terminologii nauk przyrodniczych, „Kultura-Historia-Globalizacja”, nr 14, 2013. 12. Barthes R., Śmierć autora, przeł. M. Markowski, „Teksty Drugie”, nr 1/2, 1999. 13. Batelle J., Szukaj. Jak Google i konkurencja wywołali rewolucje biznesową i kulturową, Wydawnictwo Naukowe PWN, Warszawa 2006. 14. Bay S., Fredheim R., Falling Behind: How Social Media Companies are Falling to Combat Inauthentic Behaviour Online, Wyd. NATO Strategic Communications Centre of Excellence, Ryga 2019. 15. Benski T., Fisher E., Internet and Emotions, Wyd. Routledge, Nowy Jork 2014. 16. Berelson B., Steiner G.A., Human Behavior, Wyd. Harcourt, Brace and World, Nowy Jork 1964. 17. Beynon-Davis P., Inżynieria systemów informacyjnych, Wyd. WNT, Warszawa 1999. 18. Biedrzycki M., Genetyka kultury, Wyd. Prószyński i S-ka, Warszawa 1998. 19. Blom A., Gathmann C., Krieger U., Setting Up an Online Panel Representative of the General Population: The German Internet Panel, „Field Methods”, Vol. 27(4), 2015. 20. Bomba R., Narzędzia cyfrowe jako wyznacznik nowego paradygmatu badań humanistycznych, red. Radomski A., Bomba R. (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 21. Borkowski W., Memy – reinterpretacja systemowa, „Teksty z ulicy. Zeszyt memetyczny” nr 17, 2016. 22. Brophy J., Bawden D., Is Google enough? Comparison of an internet search engine with academic library resources, Aslib Proceedings: New Inforation Perspectives”, vol. 57, nr 6, 2005. 23. Brosnan C., Kirby E., Sociological Perspectives on the politics of knowledge in health care. Intrduction to the themed issue, „Health Sociology Review nr 25(2), 2016. 24. Brosz M., Bryda G., Siuda P., Big data i CAQDAS a procedury badawcze w polu socjologii jakościowej, „Przegląd Socjologii Jakościowej”, t. 13, nr 2. 25. Bruns A., Blogs, Wikipedia, Second Life, and Beyond: From Production to Produsage, Wyd. Peter Lang, Nowy Jork 2008. 26. Brzeziński M., red., Zarządzanie innowacjami technicznymi i organizacyjnymi, Wyd. Difin, Warszawa 2001. 27. Cach R., Ciszewski A., Kołaczkiewicz J., Słownik. Fizyka, Wyd. Europa, Wrocław 2017. 28. Castells M., Społeczeństwo sieci, Wydawnictwo Naukowe PWN, Warszawa 2006. 29. Cataldi M., Di Caro L., Schifanella C.. Emerging topic detection on Twitter based on temporal and social terms evaluation, „MDMKDD ’10”, 2010. 30. Choroś K., Further Tests with Click, Block, and Heat Maps Applied to Website Evaluations, P. Jędrzejowicz, N.T. Nguyen, K. Hoang (red.), „Computational Collective Intelligence. Technologies and Applications ICCCI 2011. Lecture Notes in Computer Science”, Berlin, Heidelberg 2011. 31. Christian B., Griffiths T., Algorytmy. Kiedy mniej myśleć i inne sposoby na racjonalne życie, Wyd. Feeria Science, 2018. 32. Couper M.P, Kapteyn A., Schonlau M., Winter J., Noncoverage and nonresponse in an Internet survey, „Social Science Research”, Vol. 36, No. 1, 2007. 33. Dawkins R., Samolubny gen, Wyd. Prószyński i S-ka, Warszawa 1996. 34. Debray R. Wprowadzenie do mediologii, Wyd. Oficyna Naukowa, Warszawa 2010. 35. Doyle C., A dictionary of marketing, Oxford 2011. 36. Drabik L., Sobol E., Słownik języka polskiego, PWN, Warszawa 2007. 37. Dubiel P., Metody i techniki badawcze w prasoznawstwie, M. Kafel (red.), „Prasoznawstwo”, PWN, Warszawa 1969. 38. Dziwak E., Wielkie bazy danych jako nowe źródła informacji. Big data przyszłością dziennikarstwa?, „Acta Humana” nr 9/2018. 39. Ekman U., Throughout. Art and Culture Emerging with Ubiquitous Computing, Wyd. MIT Press, Cambridge 2013. 40. Ellison N., Heino R., Gibbs J., Managing Impressions Online: Self-Presentation Processes in the Online Dating Environment, „Journal od Computer-Mediated Communication” vol. 11/2, 2006. 41. Endsley M.R., Jones D., Designing for Situation Awareness: An Approach to User-Centered Design, Wyd. CRC Press, Boca Raton 2016. 42. Evans M. P., Analysing Google rankings through search engine optimization data, „Internet Research”, vol. 17/1, 2007. 43. Farris P., Bendle N., Pfeifer P., Reibstein D., Marketing Metrics: The Manager's Guide to Measuring Marketing Performance, Wyd. Pearson Education, New Jersey 2016. 44. Fiedler R., Mediamorphosis: Understanding New Media, Wyd. Pine Forge Press, California 1997. 45. Frankfort-Nachmias C., Nachmias D., Metody badawcze w naukach społecznych, Wyd. Zysk i S-ka, Poznań 2001. 46. Goban-Klas T., Komunikowanie i media, Bauer Z., Chudziński E. (red.), „Dziennikarstwo i świat mediów”, Wyd. Universitas, Kraków 2008, s. 33. 47. Goban-Klas T., Media i komunikowanie masowe. Teorie i analizy prasy, radia, telewizji i Internetu, Wydawnictwo Naukowe PWN, Warszawa 2004. 48. Gogołek W., Komunikacja sieciowa. Uwarunkowania, kategorie, paradoksy, Oficyna Wydawnicza ASPRA-JR, Warszawa 2010, 49. Gomez M., Rodriguez M., Leskovec J., Krause A., Inferring Networks of Diffusion and Influence, „The 16th ACM SIGKDD Conference on Knowledge Discovery and Data Mining” (KDD), Waszyngton, 2010. 50. Gospodarek T., Elastyczność zasobu informacyjnego, R. Krupski (red.), „Elastyczność organizacji”, Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu, Wrocław, 2008. 51. Grabowski M., Zając A., Dane, informacje wiedza – próba definicji, „Zeszyty Naukowe Uniwersytetu Ekonomicznego w Krakowie”, nr 798, 2009. 52. Guille A., Hacid H., Favre C., Zighed D.A., Information Diffusion in Online Social Networks. A Survey, ”Sigmond Record”, nr 42/2, 2013. 53. Graszewicz M., Jastrzębski J., „Teorie komunikacji i mediów vol. 1”, Oficyna Wydawnicza Atut, Wrocław 2009. 54. Grzenia J., Komunikacja językowa w Internecie, Wyd. Naukowe PWN, Warszawa 2006. 55. Halavais A., Wyszukiwarki internetowe a społeczeństwo, Wydawnictwo Naukowe PWN, Warszawa 2012. 56. Hargittai E., Fullerton L., Menchen-Trevino E., Yates Thomas K., Trust Online: Young Adults’ Evaluation of Web Content, „International Journal of Communication nr 4, 2010. 57. Hassa R., Mrzigod J., Nowakowski J., Podręczny słownik chemiczny, Wyd. Videograf II, Warszawa 2004. 58. Hayles N.K., Traumas of code, „Critical Inquiry”, vol. 33, nr 1, 2006. 59. Hethcote H.W., The mathematics of infectious diseases, „Siam Review”, nr 42(4), Filadelfia 2000. 60. Heylighen F., What makes a meme successful? Selection criteria for cultural evolution. „Proc. 16th Int. Congress on Cybernetics, Association Internationale de Cybernétique”, Namur 1998, s. 420. 61. Hoboken van J.V.J., Search engine freedom: on the implications of the right to freedom of expression for the legal governance of Web search engines, Wyd. Uniwersytet w Amsterdamie 2012. 62. Holmqvist K., Nyström M., Andersson R., Dewhurst R., Jarodzka H., Weijer J., Eye Tracking: A comprehensive guide to methods and measures, Oxford 2010. 63. Idzik P., Analiza Big Data. Badania niereaktywne w erze Internetu 2.0, A. Radomski, R. Bomba (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 64. Ilnicki R., Technologiczne Oświecenie jako wyjście człowieka z globalnego paraliżu sztucznych mózgów dzięki rozumowi interfejsowemu, A. Radomski, R. Bomba (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 65. Jakobson R., W poszukiwaniu istoty języka. Wybór pism, tłum. M. Mayenowa, Państwowy Instytut Wydawniczy, Warszawa 1989. 66. Jana S., Chatterjee S., Quantifying Web‐site visits using Web statistics: an extended cybermetrics study, „Online Information Review”, vol. 28 nr 3, 2004. 67. Jaska E., Uwarunkowania makroekonomiczne rozwoju rynku reklamy w Polsce, „Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu”, nr 449, 2016. 68. Jemielniak D., Socjologia Internetu, Wydawnictwo Naukowe Scholar, Warszawa 2019. 69. Jemielniak D., Koźmiński A.K., Zarządzanie Wiedzą, Wyd. Wolters Kluwer, Warszawa 2011. 70. Kagermann H., Wahlster W., Helbig J., Recommendations for implementing the strategic initiative Industrie 4.0, Wyd. National Academy od Science and Engineering, na zlecenie Ministerstwa Edukacji i Nauki Niemiec, 2013. 71. Kaiser S., Interpretive Cultural Diffusion and Natural/Cultural Esotericism: Ecotourism and It’s Implications for Sustainable Resource Management, Small-Scale Fishery Development, and the Existential Crisis of the Modern Individual, „Undergraduate Honors Theses” nr 769, Uniwersytet Kolorado 2015. 72. Kajtoch W., Słownictwo a analiza zawartości prasy, „Studia nad mediami i komunikowaniem masowym. Prawo – język – tekst”, ] red. J. Fras, „Studia nad mediami i komunikowaniem masowym. Prawo – język - tekst”, Wyd. Adam Prószyński, Toruń 2007. 73. Kaplan A.M., Haenlein M., Users of the world, unite! The challenges and opportunities of Social Media, „Business Horizons” nr 53, 2010. 74. Karcz K., Bajdak A., Wykorzystanie Internetu w badaniach marketingowych, „Acta Universitatis Lodziensis. Folia Oeconomica”, nr 179/2004. 75. Katz E., Gurevitch M., Haas H., On the Use of the Mass Media for Important Things, „American Sociological Review” Nr. 38, 1973. 76. Kaufman J., Patterson O., Cross-National Cultural Diffusion: The Global Spread of Cricket, „American Sociological Review”, nr 70/1, 2005. 77. Kuehnelt-Leddihn E., Demokracja – opium dla ludu?, Wyd. Thesaurus. Łódź 2008. 78. Kiklewicz A., Dyfuzja semantyczna w języku i tekście, „LingVaria” nr 2006/2, Wydział Polonistyki Uniwersytetu Jagiellońskiego, 2006. 79. Kitsak M., Gallos L., Havlin S., Liljeros F., Muchnik L., Stanley H., Makse H., Identification of influential spreaders in complex networks, „Nature Physics”, 6(11), 2010. 80. Konecki K., Studia z metodologii badań jakościowych. Teoria ugruntowana, Wydawnictwo Naukowe PWN, Warszawa 2000. 81. Kopaliński W., Słownik wyrazów obcych i zwrotów obcojęzycznych z almanachem, Wyd. Rytm, Warszawa 2014. 82. Kopecka-Piech K., Technologie pierwszego kontaktu. Smartfonizacja życia codziennego młodych użytkowników, K. Konarska, P. Urbaniak (red.), „Media a społeczeństwo. Współczesne problemy i wyzwania”, Wydawnictwo Uniwersytetu Wrocławskiego, Wrocław 2019. 83. Kozinets R.V., Netnography. Doing Ethnographic Research Online, Wyd. Sage Publications, Londyn 2010. 84. Koźlak A., Sharing economy jako nowy trend społeczno-gospodarczy, „Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu”, nr 489 Ekonomia, Wrocław 2017. 85. Kreft J., Algorithm As Demiurge. A Fundamental Myth of New Media, R. Batko, A. Szopa, (red.) „Strategic Imperatives and Core Competencies in the Era of Robotics and Artificial Intelligence”, Wyd. Hershey IGI Global, 2016. 86. Kreft J., Redefinicja władzy mediów – rola algorytmów, B. Czechowska-Derkacz D. Chomik, J. Wojsław (red.), „Media, biznes, kultura, t. 1, Media w procesie zmian - etyka i komunikacja”, Wyd. Uniwersytetu Gdańskiego, Gdańsk 2018. 87. Kreft J., Władza algorytmów mediów – między reifikacją a rynkiem, „Zarządzanie w kulturze”, nr 19, z. 1, 2018. 88. Krzysztofek K., Zwrot cyfrowy: ku pracy rozproszonej, A. Radomski, R. Bomba (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 89. Kuziak M., Pomiaer działań marketingowych w Internecie – przegląd metod i problemów, „Acta Universitatis Lodziensis. Folia Oeconomica”, nr 179/2004. 90. Langefors B., Theoretical Analysis of Information Systems, „Studentlitteratur”, Wyd. Sweden and Auerbach Publishers Inc., Philadelphia, 1973. 91. Lemański A., Maszyny w big data z perspektywy socjologii pracy. Czy algorytmy pomogą nam pracować z dużymi zbiorami danych? „Media Kultura Komunikacja Społeczna”, nr 14/3, 2018. 92. Leskovec J., Backstrom L., Kleinberg M., Meme-tracking and the dynamics of the news cycle, KDD ’09, 2009. 93. Levy P., Drugi potop, M. Hopfinger (red.), „Nowe media w komunikacji społecznej XX wieku. Antologia”, Wyd. Oficyna Naukowa, Warszawa 2002. 94. Lisowska-Magdziarz M., Zaproszenie do dyskusji o potrzebie integracji instrumentarium badawczego Medioznawcy, J. Fras (red.), „Studia nad mediami i komunikowaniem masowym. Prawo – język - tekst”, Wyd. Adam Prószyński, Toruń 2007. 95. Lyons J., Semantyka, PWN, Warszawa 1984. 96. Łaszczyna P., Memy w pamięci: jak wyśledzić memy w mózgu, „Teksty z Ulicy. Zesszyt memetyczny”, nr 18, 2017. 97. Madison J., Mattern D.B., James Madison’s „Advice to My Country”, wyd. University of Virginia Press, 1997. 98. Maddison R. (red.), Information Systems Development for Managers, wyd. Paradigm, Londyn 1989. 99. Maigret E., Socjologia komunikacji i mediów, Wyd. Oficyna Naukowa, Warszawa 2012. 100. Makkonen J., Ahonen-Myka H., Salmenkivi M., Simple semantics in topic detection and tracking. „Information Retrieval Journal”, nr 7(3-4), 2004. 101. Mamak-Zdanecka M., Stojkow M., Żuchowska-Skiba D., Społeczny wymiar algorytmizacji, „Humanizacja pracy. Technologiczno-społeczny wymiar sztucznej inteligencji. Władza algorytmów?”, nr 3(297), 2019. 102. Manovich L., Język nowych mediów, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2006. 103. Maryńczak R., Telemetria. Pomiar widowni telewizyjnej – podstawa wyceny czasu reklamowego, „Zeszyty Naukowe Akademii Ekonomicznej w Krakowie”, nr 538, Kraków 2000. 104. Mayer-Schonberger V., Cukier K., Big Data. Rewolucja, która zmieni nasze myślenie, pracę i życie, Wyd. MT Biznes, Warszawa. 2014. 105. Mazurkiewicz B., Rola liderów opinii w komunikacji nieformalnej, „Marketing i rynek” nr 11/2014. 106. McLuhan M., Nevitt B., Take Today: The Executive as Dropout, Nowy Jork 1972. 107. McQuail D., Teoria komunikowania masowego, Wyd. Naukowe PWN, Warszawa 2007. 108. Mellon, J., Where and When Can We Use Google Trends to Measure Issue Salience? „Political Science and Politics” 46(2), 2013. 109. Mersch D., Teorie Mediów, tłum. Krauss E., Wyd. Sic!, Warszawa 2010. 110. Michalczyk S., Pojęcie mediatyzacji w nauce o komunikowaniu, S. Michalczyk, M. Kolczyński, M. Mazur (red.), „Mediatyzacja kampanii politycznych”, Wyd. Uniwersytetu Śląskiego, Katowice 2009. 111. Mikosz J., Fąka P., Specyfika stron prasy elektronicznej, E. Pleszkun-Olejniczakowa, J. Bachura, M. Worsowicz (red.), „O mediach i komunikacji”, Wyd. Uniwersytetu Łódzkiego, Łódź 2010. 112. Mirocha Ł, Poszerzona przestrzeń ery cyfrowej. Analiza poziomów ontologicznych oraz sieci relacji między mediami, artefaktami ery cyfrowej a człowiekiem, A. Radomski, R. Bomba (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 113. Mrozowski M., Media masowe. Władza rozrywka i biznes, Oficyna Wydawnicza ASPRA-JR, Warszawa 2001. 114. Mróz B., Konsument w sieci – wyzwania i zagrożenia, „Handel wewnętrzny” nr 4 (351), 2014. 115. Nacher A., Poza cyfrowość w zwrocie cyfrowym – od humanistyki cyfrowej do spekulatywnej komputacji, Radomski A., Bomba R. (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 116. Niederdeppe J., Conceptual, empirical, and practical issues in developing valid measures of public communication campaign exposure, „Communication Methods and Measures” nr 8(2), 2014. 117. Noske M., Kształtowanie się społeczeństwa wirtualnego, „Edukacja Medialna”, nr 4, Poznań 2003. 118. Pakkala H., Presser K., Christensen T., Using Google Analytics to measure visitor statistics: The case of food composition websites. „International Journal of Information Management”, nr 32, 2012. 119. Pałasz M., Algorytm Edge Rank serwisu Facebook: narodziny, rozwój i działanie w ujęciu teorii aktora-sieci, „Humanizacja pracy. Technologiczno-społeczny wymiar sztucznej inteligencji. Władza algorytmów?”, nr 3(297), 2019. 120. Pan B., Hembrooke H., Joachims T., Lorigo L., Gay G., Granka L., In Google We Trust: Users’ Decisions on Rank, Position and Relevance, „Journal of Computer-Mediated Communication”, nr 12(3), 2007. 121. Pawlicka U., Humanistyka: pracownia, centrum czy laboratorium, „Nowa humanistyka. Teksty drugie”, nr 2017/1. 122. Piądłowski K., Portale internetowe, Wyd. Centrum Edukacji Bibliotekarskiej, Informacyjnej i Dokumentacyjnej, Warszawa 2006. 123. Piekarski K., Ekonomia percepcji. Mechanizmy selekcjonowania informacji w Internecie, Uniwersytet Śląski, Katowice 2014. 124. Piekarski K., Kultura danych. Algorytmy wzmacniające uwagę, Wydawnictwo Naukowe Katedra, Gdańsk 2017. 125. Pisarek W., Nowa retoryka dziennikarska, Wyd. Universitas, Kraków 2011. 126. Pisarek W., Polskie słowa sztandarowe i ich publiczność, Wyd. Universitas, Kraków 2003. 127. Pisarek W. (red.), Słownik terminologii medialnej, Wyd. Universitas, Kraków 2006. 128. Pisarek W., Wstęp do nauki o komunikowaniu, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2008. 129. Piwowar J., Uprzedzenia w algorytmach, , „Humanizacja pracy. Technologiczno-społeczny wymiar sztucznej inteligencji. Władza algorytmów?”, nr 3(297), 2019. 130. Plaza B, Monitoring web traffic source effectiveness with Google Analytics, „Aslib Proceedings”, vol. 61 nr 5, 2009. 131. Polański K. (red.), Encyklopedia językoznawstwa ogólnego, Wyd. Ossolineum, Wrocław 1999. 132. Popek E., Understandig The World Of User Generated Content, Wyd. Rosen Central, Nowy Jork 2011. 133. Punch K., Introduction to Social Research: Quantittative and Qualitative Approaches, Wyd. Sage, Londyn 1998. 134. Radomski A., Digital storytelling. Kilka słów o wizualizacji wiedzy w humanistyce, Radomski A., Bomba R. (red.), „Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0”, Wyd. E-naukowiec, Lublin 2013. 135. Radomski A., Bomba R., Zwrot cyfrowy w humanistyce. Internet, nowe media, kultura 2.0, Wyd. E-naukowiec, Lublin 2013. 136. Ramsay S., Reading Machines. Toward an Algorithmic Criticism, Wyd. University of Illinois Press, Chicago 2011. 137. Richards N., King J., Big data ethics, „Wake Forest L. Rev.” nr 393/2014, 2014. 138. Rogers E.M., Diffusion of innovation, Wyd. Simons & Schuster, Nowy Jork 2003. 139. Romaniszyn K., Kulturowe implikacje współczesnych migracji międzynarodowych. Zarys problematyki na przykładzie Polski, "Studia Polonijne", t. 20, 1999. 140. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych). 141. Saito K., Ohara K., Yamagishi Y., Kimura M., Motoda H, Learning diffusion probability based on node attributes in social networks, „International Symposium on Methodologies for Intelligent Systems. ISMIS ’11”, Warszawa 2011. 142. Shah A., Raja P.V.K., Smart Mobile TV in the Technological Phones Integrating with cloud Based Service Social Media Service, „International Journal of Research in Science & Technology”, vol. 3/8, 2017. 143. Shamma D.A., Kennedy L., Churchill E.F., Peaks and persistence: modeling the shape of microblog conversations, CSCW ’11, 2011. 144. Shaw M., Internet addiction: definition, assessment, epidemiology and clinical management, „CNS Drugs” 22(5), 2008. 145. Silverman D., Prowadzenie badań jakościowych, Wydawnictwo Naukowe PWN, Warszawa 2008. 146. Skolik S., Pacynki, trolle, spam, hoaxy i wandalizmy. Mechanizmy wykrywania oszustów w przestrzeni Wikipedii, „Teksty z Ulicy. Zeszyt memetyczny” nr 18, 2017. 147. Skop M., Merenyi M., Turashvili T., Izdebski K., Kerekes D., Ilić V., alGOVrithms. State of play, Wyd. Fundacja ePaństwo, 2019. 148. Souma W., Jibu M., Progress of Studies od Citations and PageRank, Jibu M., Osabe Y. (red.), „Scientometrics”, Wyd. IntechOpen 2018. 149. Stanuch S.M., Jak śledzić Trendy w Google Trends, „Press” nr 03-04/2019. 150. Stempień J., Rostoscki W., Wywiady eksperckie i wywiady delfickie w socjologii – możliwości i konsekwencje wykorzystania. Przykłady doświadczeń badawczych, „Przegląd Socjologiczny”, nr 62/1, 2013. 151. Strzelecki A., Zastosowanie systemów analityki internetowej do analizy efektywności kanałów ruchu i handlu elektronicznego, „Prace Naukowe. Uniwersytet Ekonomiczny w Katowicach. Modele techniczno-społeczne wirtualizacji i udostępniania na żądanie zasobów IT”, 2016. 152. Szczepaniak R., „Plemiona sieci”. Internet jako medium społeczne i kulturowe, „Zeszyty prasoznawcze”, t. 58, nr 1(221), Kraków 2015. 153. Szmigielska B., Bąk A., Hołda M., Seniorzy jako użytkownicy Internetu, „Nauka”, nr 2, 2012. 154. Szpunar M., Badania Internetu vs. badania w Internecie, czyli jak badać nowe medium – podstawowe problemy metodologiczne, „Studia Medioznawcze” nr 2/2007, Warszawa 2007. 155. Szpunar M., Humanistyka cyfrowa a socjologia cyfrowa. Nowy paradygmat badań naukowych, „Zarządzanie w kulturze” nr 17, z. 4, 2016. 156. Szpunar M., Imperializm Kulturowy Internetu, Wyd. Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków 2017. 157. Szpunar M., Internet w procesie gromadzenia danych o charakterze wtórnym, „Studia Medioznawcze” nr 2 (37), 2009. 158. M. Szpunar, Koncepcja bańki filtrującej a hipernarcyzm nowych mediów, „Zeszyty Prasoznawcze”, T. 61, nr 2(234), 2018. 159. Szpunar M., Kultura algorytmów „Zarządzanie w kulturze” nr 19, z.1, 2018. 160. Szpunar M., Kultura algorytmów, Wyd. Instytut Mediów, Dziennikarstwa i Komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków 2019, 161. Szpunar M., Mediatyzacja nauki. O roli naukowców w epoce paleo- i neotelewizji, „Zarządzanie w Kulturze”, nr 16, z. 3, 2015. 162. Szpunar M., Nowe media: nowe metody badawcze?, Szymańska A., Lisowska-Magdziarz M., Hess A. (red.), Metody badań medioznawczych i ich zastosowanie, Wyd. Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej, Kraków 2018. 163. Szpunar M., Nowe-stare medium. Internet między tworzeniem nowych modeli komunikacyjnych a reprodukowaniem schematów komunikowania masowego, Wyd. IFiS PAN, Warszawa 2012. 164. Szpunar M., Od gatekeepingu tradycyjnego do technologicznego, jejże „Imperializm kulturowy Internetu”, Wyd. IDMiKS Uniwersytet Jagielloński, Kraków 2017. 165. Szymańska A., Lisowska-Magdziarz M., Hess A. (red.), Metody badań medioznawczych i ich zastosowanie, Wyd. Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej, Kraków 2018. 166. Taneja H., Mamoria U., Measuring media use across platforms: Evolving audience information systems, „The International Journal on Media Management” nr 14(2), 2012. 167. Toffler A., Szok przyszłości, Wyd. Zysk i S-ka, Poznań 1998. 168. Toffler A., Trzecia fala, tłum. Ewa Wojdyło, Wyd. Studio Emka, Warszawa 2001. 169. Turing A. (1995). Maszyna licząca a inteligencja, tłum. D. Gajkowicz. Chwedeńczuk B. (red.), „Filozofia umysłu”, wyd. Aletheia, Warszawa 1995. 170. Turner A., Zieliński M.W., Słomczyński K.M.: Google Big Data: charakterystyka i zastosowanie w naukach społecznych, „Studia Socjologiczne” nr 4(231), 2018. 171. Vickery G., Wunsch-Vincent S., Participative web and user-created content: Web 2.0, wikis, and social networking, Wyd. Organisation for Economic Cooperation and Development, Paryż 2007. 172. Vreese C.H., Neijens P., Measuring Media Exposure in a Changing Communications Environment, „Communication Methods and Measures”, nr 10, 2016. 173. Walker A., Panfil V.R., Minor attraction: A queer crminological issue, „Critical Criminology” nr 25(1), 2017. 174. Wawer M., Robot Journalism – czy w newsroomach przyszłości będą pracować automaty? „Zeszyty Prasoznawcze” T.61, nr 2 (234), 2018. 175. Webster J., Phalen P., Lichty L., Ratings analysis: Audience measurement and analytics, Nowy Jork 2014. 176. Wendland M., Działanie komunikacyjne a przekazywanie informacji, „Komunikologia. Teoria i praktyka w komunikacji”, Wyd. Naukowe IF UAM, Poznań 2012. 177. Wielki J., The social and ethical challenges connected with the Big Data phenomenon, „Polish Journal of Management Studies”, vol. 11/2, 2015. 178. Willis P., Foot Soldiers of Modernity: The Dialectics of Cultural Consumption and the 21st-Century School, „Harvard Educational Review”, nr 73(3), 2003. 179. Wiśniakowska L., Słownik wyrazów obcych, PWN, Warszawa 2007. 180. Wolny-Zmorzyński K., Kaliszewski A., Furman W., Gatunki dziennikarskie. Teoria, praktyka, język, Wydawnictwa Akademickie i Profsjonalne, Warszawa 2009. 181. Yang J., Leskovec J., Modeling information diffusion in implicit networks, „ICDM’10: The 10th IEEE International Conference on Data Mining”, Sydney 2010. 182. Zeleny M., Management Support Systems: Towards Integrated Knowledge Management, „Human Systems Management”, 7(1987)1, 1987. 183. Zhang Y., Optimizing and Understanding Network Structure for Diffusion, Wyd. Uniwersytet Stanu Wirginia, 2017. 184. Ziobrowska J., Sharing economy jako nowy trend konsumencki, Kalina-Prasznic U. (red.), „Własność w prawie i gospodarce”, E-Wydawnictwo. Prawnicza i Ekonomiczna Biblioteka Cyfrowa. Wydział Prawa, Administracji i Ekonomii Uniwersytetu Wrocławskiego, Wrocław 2017. 185. Żmijewska-Jędrzejczyk T., Badania internetowe, P. Sztabiński, Z. Sawiński (red.), „Nowe metody, nowe podejścia badawcze w naukach społecznych”, Warszawa 2004. Źródła internetowe: 1. Alexander J., TikTok surges past 6M downloads in the US as celebrities join the app, „The Verge”, [online, dostępny na stronie:] https://www.theverge.com/2018/11/15/18095446/tiktok-jimmy-fallon-tony-hawk-downloads-revenue 2. Anastas P., Breen W.R., Cheng Y., Lieberman A., Mouline I., Methods and apparatus for real user monitoring, [online, dostępny na stronie:] https://patents.google.com/patent/US7765295B2/en 3. Anderson C., The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, [online, dostępny na stronie:] https://www.wired.com/2008/06/pb-theory/ 4. Brooks D., What data can’t do, „New York Times”, 18.02.13r., [online, dostępny na stronie:] http://www.nytimes.com/2013/02/19/opinion/brooks-what-data-cant-do.html 5. Budiu R., Mobile: Native Apps, Web Apps, and Hybrid Apps, [online, dostępny na stronie:] https://www.nngroup.com/articles/mobile-native-apps/ 6. Butts T., Media 4.0: Using AI To Meet Viewers’ Preferences, TVTechnology, 2018, [online, dostępny na stronie:] https://www.tvtechnology.com/equipment/media-4-0-using-ai-to-meet-viewers-preferences 7. Cordasco M., Visualization of website analytics, Patent International Business Machines Corp (IBM), Nowy Jork 2015, [online, dostępny na stronie:] https://patents.google.com/patent/US8930818B2/en 8. Derfert-Wolf L., Serwisy tematyczne o kontrolowanej jakości w Internecie - subject gateways, red. B. Bednarek-Michalska, „Biuletyn EBIB” nr 6/2004 (57), [online, dostępny na stronie:] https://core.ac.uk/download/pdf/11879041.pdf 9. Fisher M.C., The Pageview is Passé: New Metrics Emerge to Measure Audiences, „American Journalism Rewiev” 2014, , [online, dostępny na stronie:] http://ajr.org/2014/03/18/pageview-passe-new-metrics-emerge-measure-audiences/ 10. Foulger D., An Ecological Model of the Communication Process, [online, dostępny na stronie:] http://davis.foulger.info/papers/ecologicalModelOf Communication.htm 11. Gajek M., Algorytm nie pisze nam tekstów, „Newsweek”, [online, dostępny na stronie:] https://www.newsweek.pl/onet-algorytm-nie-pisze-nam-tekstow-rozmowa/elbkjlz 12. Gąsiewski M., Google Trends aktualizowany co godzinę, [online, dostępny na stronie:] http://www.ittechnology.us/google-trends-aktualizowany-co- godzine/ 13. Geary J., DoubleClick (Google): What is it and what does it do?, [online, dostępny na stronie:] https://www.theguardian.com/technology/2012/apr/23/ doubleclick-tracking-trackers-cookies-web-monitoring 14. Głowacki W., Internet 4.0? Może już nawet powstaje, w „Polska The Times”, [online, dostępny na stronie:] https://polskatimes.pl/internet-40-moze-juz-nawet-powstaje/ar/c3-10582858 15. Gordon S., Web4, [online, dostępny na stronie:] https://seths.blog/2007/01/web4/ 16. Grodecka M., Facebook, Google, Apple i Microsoft przekazują polskim służbom coraz więcej danych, [online, dostępny na stronie:] https://www.spidersweb.pl/2018/12/facebook-dane-przekazywane-sluzbom.html 17. Guryn H., Zarządzanie przez cele i system wynagradzania pracowników na przykładzie firmy Empik Sp. z o.o., [online, dostępny na stronie:] https://www.prawo.pl/kadry/zarzadzanie-przez-cele-i-system-wynagradzania-pracownikow-na-przykladzie-firmy-empik-sp-z-o-o-,274461.html 18. Jarynowski A., Grabowski A., Modelowanie epidemiologiczne dedykowane w Polsce, Centrum zastosowań Matematyki, [online, dostępny na stronie:] http://www.czm.mif.pg.gda.pl/wp-content/uploads/fam/publ/jarynowski2.pdf 19. Jenkins H., Puroshotma R., Clinton K., Weigel M., A.J. Robinson, Confronting the Challenges of Participatory Culture: Media Education for the 21st Century, Wyd. MacArthur 2006, [online, dostępny na stronie:] http://www.newmedialiteracies.org/wpcontent/uploads/pdfs/NMLWhitePaper.pdf 20. Kaushik A., Excellent Analytics: Make Love To Your Direct Traffic, [online, dostępny na stronie:] https://www.kaushik.net/avinash/excellent-web-analytics-tip-analyze-direct-traffic/ 21. Kemmis A., The Difference Between Direct and Organic Wesite Traffic Sorces, [online, dostępny na stronie:] https://www.smartbugmedia.com/blog/what-is-the-difference-between-direct-and-organic-search-traffic-sources 22. Kozłowski K., W jaki sposób Google mierzy ruch na polskich drogach, [online, dostępny na stronie:] https://antyweb.pl/w-jaki-sposob-google-mierzy-ruch-na-polskich-drogach 23. Kruse K., Top 10 Facebook Marketing KPIs (Key Performance Indicators), [online, dostępny na stronie:] https://www.krusecontrolinc.com/top-facebook-marketing-kpis-key-performance-indicators 24. Lackorzyński J.: Klikająca demokracja. Dokąd pchają nas algorytmy?, [online, dostępny na stronie:] https://klubjagiellonski.pl/2017/06/19/klikajaca-demokracja-dokad-pchaja-nas-algorytmy/ 25. Laney D., 3D Data Management: Controlling Data Volume, Velocity, and Variety, „Applocation Delivery Strategies”, Meta Group, [online, dostępny na stronie:] https://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf 26. Lewicki G., Ludzkość we władzy algorytmów. Czy da się poprawić Internet?, „Rzeczpospolita”, [online, dostępny na stronie:] https://cyfrowa.rp.pl/opinie/41252-przejac-panowanie-nad-algorytmami 27. Li C., Engagement Pyramid, [online, dostępny na stronie:] https://community.lithium.com/t5/Lithium-s-View-Blog/Community-Participation-Ladder-or-Pyramid/ba-p/838 28. Loukides M., What is Data science?, „O’Reilly Radar”, 2.06.2010r., [online, dostępny na stronie:] https://www.oreilly.com/ideas/what-is-data-science 29. Majchrzyk Ł., Mobile i digital w 2018 roku w Polsce i na świecie, „MobiRank”, [online, dostępny na stronie:] https://mobirank.pl/2018/02/02/mobile-i-digital-w-2018-roku-w-polsce-i-na-swiecie/ 30. Manovich L., The Poetics of Augmented Space, [online, dostępny na stronie:] http://manovich.net/content/04-projects/035-the-poetics-of-augmented-space/31_article_2002.pdf 31. Manovich L., Trending: The Promises and the Challenges of Big Social Data, [online, dostępny na stronie:] http://manovich.net/content/04-projects/068-trending-the-promises-and-the-challenges-of-big-social-data/64-article-2011.pdf 32. McKenna G., Experiment Shows Up To 60% Of “Direct” Traffic Is Actually Organic Search. [online, dostępny na stronie:] https://searchengineland.com/60-direct-traffic-actually-seo-195415 33. Mikowska M., Raport Polska jest mobi 2018, [online, dostępny na stronie:] http://webcache.googleusercontent.com/search?q=cache:SptoasxvdBcJ:jestem.mobi/2018/04/raport-polska-jest-mobi-2018dopobrania/+&cd=2&hl=pl&ct =clnk&gl=pl 34. Naik U., Shivalingaiah D., Comparative Study of Web 1.0, Web 2.0 and Web 3.0, „International CALIBER – 2008”, [online, dostępny na stronie:] http://www.ftsm.ukm.my/ss/book/Comparative%20Study.pdf 35. Ngyuen A., Kelleher A., Introducing Pound: Process for Optimizing and Understanding Network Diffusion; [online, dostępny na stronie:] https://www.buzzfeed.com/daozers/introducing-pound-process-for-optimizing-and-understanding-n#.va4lg8N4Qz 36. Niżnik W., Social media 2016, Badania IRCenter, [online, dostępny na stronie:] https://ircenter.com/social-media-2016/ 37. Ogonowski A., Powiadomienia Push – porównanie możliwości, [online, dostępny na stronie:] ttps://www.smsapi.pl/blog/aktualnosci/powiadomienia-push-nowa-usluga-wiele-mozliwosci/ 38. O’Reilly T., What is Web 2.0, [online, dostępny na stronie:] https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html 39. Pariser E., Beware online “filter bubbles”, [online, dostępny na stronie:] http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles 40. Rosen G, Lyons T., Remove, Reduce, Inform: News Steps to Manage Problematic Content, [online, dostępny na stronie:] https://about.fb.com/news/2019/04/remove-reduce-inform-new-steps/ 41. Sadler P.J., User-centric, user-weighted method and apparatus for improving relevance and analysis of information sharing and searching, Patent uAffect org LLC, 2012 [online, dostępny na stronie:] https://patents.google.com/patent/EP2519920A4/zh 42. Scott M., Cerulus L., Europa znów podbija świat - ustala nowe zasady prywatności w sieci dla wszystkich, „Politico” [online, dostępny na stronie:] https://wiadomosci.onet.pl/swiat/europa-znow-podbija-swiat-ustala-nowe-zasady-prywatnosci-w-sieci-dla-wszystkich/rcm6r9c 43. E. Selinger, P. Lin, Inside Google’s Mysterious Ethic Board, „Forbes”, [online, dostępny na stronie:] https://www.forbes.com/sites/privacynotice/2014/02/03/inside-googles-mysterious-ethics-board/#efc8 72848cf 44. Shannon C.E., A mathematical theory of communication, „Bell System Technical Journal”, nr 27, [online, dostępny na stronie:] http://cm.belllabs.com/cm/ms/what/shannonday/shannon1948.pdf 45. Sharwood S., Facebook warehousing 180 petabytes of data a year, [online, dostępny na stronie:] https://www.theregister.co.uk/2012/11/09/facebook_open_sources_corona/ 46. J. Snoch. 13 Rosjan oskarżonych o wpływanie na wyniki wyborów w USA, „Komputer Świat”, [online, dostępny na stronie:] https://www.komputerswiat.pl/aktualnosci/wydarzenia/13-rosjan-oskarzonych-o-wplywanie-na-wyniki-wyborow-w-usa/2ky8fr8 47. Sullivan D., Safari Shifts To Google Secure Search in iOS 6, Causing Search Referrer Data To Disappear, [online, dostępny na stronie:] https://searchengineland.com/ios-6-removes-all-google-search-referer-data-134560 48. The Cambridge Analytica Files, „The Guardian” [online, dostępny na stronie:] https://www.theguardian.com/news/series/cambridge-analytica-files 49. WirtualneMedia: 90 proc. polskich internautów korzysta z social media. Liderem. Facebook, w górę YouTube, [online, dostępny na stronie:] http://www.wirtualnemedia.pl/artykul/90- proc-polskich-internautow-korzysta-z-social-media-liderem-facebook-w-gore-youtube# 50. Wirtualne Media: Internetowe wyszukiwarki najbardziej zaufanym źródłem medialnym na świecie, [online, dostępny na stronie:] https://www.wirtualnemedia.pl/artykul/internetowe-wyszukiwarki-najbardziej-zaufanym-zrodlem-medialnym-na-swiecie 51. Wirtualne Media: Onet rezygnuje całkowicie z komentarzy w serwisach Wiadomości i Kultura, [online, dostępny na stronie:] https://www.wirtualnemedia.pl/artykul/onet-rezygnuje-calkowicie-z-komentarzy-w-serwisach-wiadomosci-i-kultura-dlaczego-jak-komentowac 52. Wirtualne Media: Paweł Milewski został dyrektorem poczty WP. Nowe funkcjonalności w usłudze, [online, dostępny na stronie:] https://www.wirtualnemedia.pl/artykul/pawel-milewski-dyrektor-poczta-wp-nowe-funkcjonalnosci-w-usludze 53. Worotyńska J., 31 statystyk dotyczących powiadomień web push, które musi znać marketer, [online, dostępny na stronie:] https://pushpushgo.com/pl/blog/31-statystyk-dotyczacych-powiadomien-web-push-ktore-musi-znac-marketer/ 54. Wójcik M. (red.), Mały leksykon postprawdy, Wyd. Fundacja Wolność i Demokracja, 2018, [online, dostępny na stronie:] https://wid.org.pl/wp-content/uploads/E_wydanie-Ma%C5%82y-Leksykon-Postprawdy.pdf 55. Zatoński M., Bauer szuka kupca na Interię, „Puls Biznesu”, [online, dostępny na stronie:] https://www.pb.pl/bauer-szuka-kupca-na-interie-978634 56. 2019 Edelman Trust Barometer. Global Report, [online, dostępny na stronie:] https://www.edelman.com/sites/g/files/aatuss191/files/201902/2019_Edelman_Trust_Barometer_Global_Report.pdf 57. About Geographical Data https://support.google.com/analytics/answer/6160484?hl=en 58. About SimilarWeb https://www.similarweb.com/corp/about/ 59. Acquisition Device https://support.google.com/analytics/answer/3123672?hl=en 60. Akamai. Czym się zajmujemy https://www.akamai.com/pl/pl/ 61. Asystent Google. Możliwości, https://assistant.google.com/explore?hl=pl_pl 62. Cennik Reklam Grupy Ringier Axel Springer https://reklama.ringieraxelspringer.pl/oferta/cennik-dokumenty/ 63. Centrum Badania Opinii Społecznej, Korzystanie z Internetu. Komunika z badań, nr 49/2017 https://www.cbos.pl/SPISKOM.POL/2017/K_049_17.PDF 64. Click map https://yandex.com/support/metrica/behavior/click-map.html 65. Co to jest wskaźnik PageRank i czy nadal ma wpływ na pozycjonowanie domeny? https://www.artefakt.pl/blog/seo/co-jest-wskaznik-pagerank-i-jaki-ma-wplyw-na-pozycjonowanie-domeny 66. Czym są pliki cookie? https://europa.eu/european-union/abouteuropa/cookies_pl 67. Dlaczego widzisz daną reklamę? Pomoc Google https://support.google.com/accounts/answer/1634057 68. Event tracking in Google Analytics https://developers.google.com/analytics/devguides/collection/analyticsjs/events 69. Eurostat, Dane statystyczne dotyczące gospodarki cyfrowej i społeczeństwa cyfrowego – gospodarstwa domowe i osoby fizyczne https://ec.europa.eu/eurostat/statisticsexplained/index.php?title=Digital_economy_and_society_statistics_-_households_and_individuals/pl 70. Gemius, TOP 20: kobiety aktywniejsze na Facebooku, mężczyźni na Twitterze, https://www.gemius.pl/wszystkie-artykuly-aktualnosci/kobiety-i-mezczyzni-w-sieci.html 71. Google Analytics Usage Statistics https://trends.builtwith.com/analytics/Google-Analytics 72. How a web session is defined in Analytics https://support.google.com/analytics/answer/2731565?hl=en 73. Kilka powodów, dla których niemal 2 mln osób wybrało AdSense, https://www.google.com/adsense/start/#/? 74. Lost Time in Google Analytics https://help.analyticsedge.com/googleanalytics/misunderstood-metrics-time-on-page-session-duration/ 75. Ochrona danych zgodnie z RODO https://europa.eu/youreurope/business/dealing-with-customers/data- protection/data-protection- gdpr/index_pl.htm 76. Opis metodologii Gemius Audience https://audience.gemius.com/pl/metodologia/opis/ 77. Po 244 latach koniec z drukowaniem Encyklopedii Britannica http://wiadomosci.gazeta.pl/wiadomosci/1,114873,11338888,Po_244_latach_koniec_z_drukowaniem_Encyklopedii_Britannica.html 78. Polityka prywatności podmiotów z grupy Ringier Axel Springer Polska, https://polityka-prywatnosci.onet.pl/ 79. Polskie Badania Internetu. Jak jest realizowane badanie? http://pbi.org.pl/badania/jak-to-dziala/ 80. Pomoc Google, Jak działa AdSense, https://support.google.com/adsense/answer/6242051?hl=pl 81. Raport o liczbie użytkowników Internetu w Polsce https://mobirank.pl/2019/02/01/raport-mobile-i-digital-na-swiecie-w-2019-roku/ 82. Ringier Axel Springer – portfolio https://www.ringieraxelspringer.pl/marki/ 83. Session duration https://support.google.com/analytics/answer/1006253?hl=en 84. Statista.com, Facebook: number of monthly active users worldwide 2008-2017 https://www.statista.com/statistics/264810/number-of-monthly-active-facebook-users-worldwide/ 85. Statista.com, Mobile phone users in the world from 2013 to 2019, https://www.statista.com/statistics/274774/forecast-of-mobile-phone-usersworldwide/ 86. Top Marka 2019. Wirtualna Polska numerem 1 wśród portali internetowych, https://www.money.pl/gospodarka/top-marka-2019-wirtualna-polska-numerem-1-wsrod-portali-internetowych-6441077652428929a.html 87. Traffic source dimensions https://support.google.com/analytics/answer/1033173?hl=en 88. Wynagrodzenia w Polsce według danych GUS, https://wynagrodzenia.pl/gus 89. Wyniki badania Gemius/PBI za sierpień 2019 https://www.gemius.pl/wszystkie-artykuly-aktualnosci/wyniki-badania-gemiuspbi-za- sirpien- 2019.html Streszczenie Tytuł: Nowe sposoby dyfuzji treści w sieci na przykładzie polskich portali internetowych Rozprawa doktorska stanowi próbę udzielenia możliwie pełnej odpowiedzi na pytania: w jaki sposób treści rozprzestrzeniają się w Internecie oraz jakie nowe kanały dyfuzji wykorzystywane są przez największe polskie portale internetowe: Onet, Wirtualną Polskę oraz Interię. Możliwie szeroki - sięgający miejscami do przestrzeni ontologicznej - opis analizowanego zjawiska, jest najważniejszą dyrektywą metodologiczną jaką się kieruję. Praca ma charakter interdyscyplinarny ze względu na globalne implikacje zjawisk generowanych przez globalną sieć. Jednym z takich fenomenów jest dyfuzja zachodząca przy wykorzystywaniu Internetu, rozumiana jako szczególny rodzaj procesu komunikacji. Metodologia badań powstała w oparciu o założenie, że współczesna humanistyka w jej ujęciu cyfrowym wymaga od badacza nie tylko teoretycznego opisu zjawisk, ale i praktycznego zastosowania danych pozyskanych w laboratorium. Opierając się na teoretycznych założeniach i osiągnięciach współczesnych badań medioznawczych w pracy zastosowano zarówno analizę big data jak i przeprowadzono wywiady eksperckie z osobami odpowiedzialnymi za powstawanie i rozwój nowych produktów oferowanych przez polskie portale internetowe. Praca analizuje największe polskie portale internetowe, zawiera omówienie kluczowych aspektów teoretycznych oraz terminologicznych dyfuzji jako zjawiska, mającego wielowymiarowy wpływ na kontekst społeczny i kulturowy. W pracy poddaję weryfikacji hipotezę stwierdzającą, że innowacyjne podejście portali do dynamicznie zmieniającej się rzeczywistości technologicznej i medialnej wpływa na rozwój nowych form i strategii docierania do użytkowników sieci. Dysertacja opisuje cechy algorytmizacji jako zjawiska społeczno-kulturowego, aby eksperymentalnie i za pomocą wywiadów eksperckich sprawdzić jak wygląda aktualne wykorzystanie algorytmów i personalizacja prezentowania treści w portalach. W kolejnych częściach dysertacji poddaję pogłębionej analizie największe kanały stymulujące dyfuzję, czyli wyszukiwarki internetowe oraz media społecznościowe. Domknięcie procesu badawczego stanowi przegląd współczesnych metodologii, stosowanych w badaniach nad procesami dyfuzji w Internecie oraz analiza wyników badań jakościowych w formie wywiadów eksperckich. Zastosowana metodologia pozwoliła na kompleksowy opis wpływu nowych rodzajów dyfuzji treści na decyzje nadawców i odbiorców oraz poznanie nowych trendów rozwojowych portali internetowych, ocenę skuteczności różnych sposobów rozprzestrzeniania treści i lepsze zrozumienie przepływu informacji we współczesnym świecie. Abstract Title: New types of web-content diffusion on the example of Polish web portals The dissertation is an attempt to provide full answer to the questions: how does content spread on the Internet and what new diffusion channels are used by the largest Polish Internet portals: Onet, Wirtualna Polska and Interia. A possibly wide - reaching in places to the ontological space - description of the analyzed phenomenon is the most important methodological directive that I follow. My work is interdisciplinary due to the global implications of phenomena generated by the global network. One of such problems is diffusion that takes place in the Internet, what can be understood as a special kind of communication process. The research methodology is based on the assumption that the contemporary humanities in its digital aspect requires from the researcher not only theoretical description of phenomena, but also practical analysis of data obtained in the laboratory. Basing on the theoretical assumptions and achievements of media research, I use in my work big data analysis and expert interviews which were conducted with people responsible for the creation and development of new products offered by Polish web portals. The paper analyses the largest Polish web portals and discusses key theoretical and terminological aspects of diffusion as a phenomenon that has a multidimensional impact on social and cultural context. In the dissertation I verify the hypothesis that the innovative approach of portals to the dynamically changing technological and media reality influences the development of new forms and strategies of reaching the network users. The dissertation describes features of algorithmization as a socio-cultural phenomenon in order to check how the current use of algorithms and personalization of content presentation in portals looks like. In the following parts of my work, I analyse largest channels stimulating the diffusion, i.e. search engines and social media. In research process I submit a review of contemporary methodologies used in research on diffusion processes in the Internet and analysis of qualitative research results in the form of expert interviews. The applied methodology allowed to present comprehensive description of the impact of new types of content diffusion on the decisions of broadcasters and users, as well as knowledge about new trends in the development of web portals, assessing the effectiveness of different ways of spreading content and better understanding of information flow in the modern world.