7
8
DIAGNOSTYKA
W ZARZĄDZANIU INFORMACJĄ:
PERSPEKTYWA INFORMATOLOGICZNA
Pod redakcją Remigiusza Sapy
Kraków 2017
Diagnostyka w zarządzaniu informacją:
perspektywa informatologiczna
Diagnostics in information management:
the perspective of information science
Redaktor
Remigiusz Sapa
Recenzent
Dr hab. Hanna Batorowska, prof. UP
ISBN: 978-83-946655-9-3
Skład, korekta w języku polskim
Martyna Fatel
Projekt graficzny okładki
Katarzyna Szczepaniec
Publikacja finansowana przez
Instytut Informacji Naukowej i Bibliotekoznawstwa
Uniwersytetu Jagiellońskiego
Kraków: Biblioteka Jagiellońska, 2017
SPIS TREŚCI
Od redaktora..........................................................................................11
I. Koncepcje i podejścia
Sabina Cisek, Remigiusz Sapa. Diagnostyczny potencjał informatologii
.................................................................................................15
Barbara Sosińska-Kalata. Diagnozowanie i optymalizacja systemów organizacji wiedzy.....................................................................................35
Monika Krakowska. Diagnozowanie rozwiązań w zakresie zarządzania informacją w organizacji z perspektywy teorii information grounds i zachowań normatywnych.........................................................................................57
Marzena Świgoń. Dzielenie się informacją i wiedzą: uwagi o diagnozowaniu
i terminologii...........................................................................75
Marek Deja. System zarządzania informacją w organizacji jako obszar diagnozy subkultur informacyjnych.......................................................89
II. Metody i narzędzia
Ewa Głowacka, Małgorzata Kisilowska. Problemy metodologiczne diagnozowania kompetencji informacyjnych badaczy z obszaru humanistyki........................ .................................................................................................111
Sabina Cisek. Diagnostyka kompetencji informacyjnych w miejscu pracy –
technika incydentów krytycznych...........................................129
Katarzyna Materska. Maturity models jako przykład narzędzi diagnozowania
zarządzania informacją w organizacjach.................................143
Mirosław Górny, Rafał Lewandowski. Metody i techniki diagnozowania systemów informacyjnych – podejście teleologiczne..............................173
Małgorzata Jaskowska, Magdalena Wójcik. Metody i techniki badania użyteczności systemów informacyjno-wyszukiwawczych opartych o model konwersacyjny........................................................................................187
Jacek Tomaszczyk. Metodyka tworzenia i ewaluacji cyfrowych narzędzi indywidualnego zarządzania informacją................................................209
Marek Nahotko, Diagnostyka poziomu akceptacji publikacji elektronicznych
z wykorzystaniem metodologii TAM (Technology Acceptance Model)........ .................................................................................................223
Anna Osiewalska. Rozwój diagnostycznej roli bibliometrii – wybrane aspekty... .................................................................................................245
Małgorzata Kowalska. Wskaźniki altmetryczne – w kierunku nowego modelu
oceny dorobku naukowego? Casus publikacji z zakresu bibliologii i informatologii..........................................................................................263
III. Przypadki i przykłady
Wiesław Babik, Wioletta Jachym. Ocena jakości informacji na stronach internetowych z punktu widzenia ekologii informacji..........................287
Małgorzata Janiak. Wizualizacja jako metoda przedstawiania wyników diagnozy systemu informacyjnego: case study polskich informatologów w XXI wieku .................................................................................................315
Anna Mierzecka. Ewaluacja rozwiązań wyszukiwania treści stosowanych przez
europejskie biblioteki akademickie w kontekście nawyków informacyjnych użytkowników.........................................................................347
Marcin Roszkowski. Diagnostyka metadanych w kolekcjach cyfrowych............. .................................................................................................365
Aneta Januszko-Szakiel. Zarządzanie bezpieczeństwem informacji w sektorze MŚP – diagnoza i rekomendacje.......................................................391
Aneta Januszko-Szakiel, Paloma Korycińska. Ocena komunikacji przekrojowej jako składnik audytu komunikacyjnego w przedsiębiorstwie wdrażającym innowacje...................................................................................415
Agnieszka Długosz-Pysz. Badania satysfakcji użytkowników archiwów w świetle projektu Archival Metrics.......................................................437
Dorota Rak. Wpływ kompetencji informacyjno-cyfrowych a proces indywidualnego zarządzania informacją wśród seniorów............................449
Contents
From the editor......................................................................................11
I. Concepts and approaches
Sabina Cisek, Remigiusz Sapa. Diagnostic potential of information science........ .................................................................................................15
Barbara Sosińska-Kalata. Diagnosis and optimization of knowledge organization systems....................................................................................35
Monika Krakowska. Diagnosing solutions within information management in the organization from the perspective of the theory of “information grounds” and normative information behaviour.....................................57
Marzena Świgoń. Information and knowledge sharing: remarks on diagnosis and terminology......................................................................75
Marek Deja. Information management system in organizations as an area for diagnosis of information subcultures.............................................89
II. Methods and tools
Ewa Głowacka, Małgorzata Kisilowska. Methodological aspects of diagnosing information literacy of the scholars in the humanities............111
Sabina Cisek. Diagnosis of workplace information literacy – the critical incident technique.................................................................................129
Katarzyna Materska. Maturity models as an example of information management diagnosis tools in organizations..............................................143
Mirosław Górny, Rafał Lewandowski. Diagnostic methods and techniques for
information systems – a teleological approach.......................173
Małgorzata Jaskowska, Magdalena Wójcik. Methods and techniques of testing
usability of information-retrieval systems based on the conversational model .................................................................................................187
Jacek Tomaszczyk. Methodology of developing and evaluating digital tools for personal information management..........................................209
Marek Nahotko, Acceptance level diagnostics of electronic publications using
the TAM (Technology Acceptance Model) methodology.......223
Anna Osiewalska. The diagnostic role of bibliometrics: selected issues............... .................................................................................................245
Małgorzata Kowalska. Altmetrics indicators – towards a new model of scientific output assessment? The case of publications from the library and information science field.............................................................................263
III. Cases and examples
Wiesław Babik, Wioletta Jachym. Evaluation of the quality of information published on the Internet from the viewpoint of information ecology................. .................................................................................................287
Małgorzata Janiak. Visualization as a method of presenting the results of the information systems diagnosis: a case study of Polish information scientists in the 21st century.............................................................................315
Anna Mierzecka. Search possibilities at the websites of European academic
libraries in the context of users’ information behaviour..........347
Marcin Roszkowski. Metadata diagnostics for digital collections......................... .................................................................................................365
Aneta Januszko-Szakiel. Information security management in the SME sector
- diagnosis and recommendations............................................391
Aneta Januszko-Szakiel, Paloma Korycińska. Transversal communication assessment as a component of a communication audit in a company facing
innovation................................................................................415
Agnieszka Długosz-Pysz. User-based evaluation of archives in the scope
of the Archival Metrics Project..............................................437
Dorota Rak. The impact of information and computer literacy on senior citizens’ personal information management..........................................449
Od redaktora
From the editor
Informatologia (nauka o informacji, informacja naukowa, information science), jako dyscyplina naukowa badająca relacje między człowiekiem a informacją i jednocześnie w dużym stopniu nastawiona na rozwiązywanie problemów praktycznych, sukcesywnie modyfikuje zakres swojego pola badawczego wraz ze zmianami w środowisku informacyjnym człowieka oraz z przemianami świadomości społecznej na temat znaczenia problemów informacyjnych dla powodzenia przedsięwzięć naukowych, gospodarczych, edukacyjnych, kulturalnych czy politycznych. Czyniąc to, wchodzi w interakcje z innymi dyscyplinami, z jednej strony czerpiąc z ich dorobku przedmiotowego i metodologicznego, a z drugiej, o czym jestem przekonany, oferując intrygujący i obiecujący potencjał tworzony w oparciu o dotychczasowe dokonania jej przedstawicieli oraz specyfikę własnej perspektywy badawczej. Jednym z ważniejszych obszarów ekspansji zainteresowań informatologicznych jest właśnie diagnostyka w zarządzaniu informacją.
Termin „diagnoza” jest tutaj rozumiany szeroko jako wykonane na podstawie badań i analiz rozpoznanie i ocena stanu, prognoza zmian tego stanu lub określenie przyczyn tych zmian, a „diagnostyka” jako działania prowadzące do sformułowania tak rozumianej diagnozy. Z kolei termin „zarządzanie informacją” rozumiany jest zarówno w wymiarze statycznym (zasoby informacyjne i ich cechy), jak i dynamicznym (procesy informacyjne – od rozpoznania potrzeb, przez pozyskiwanie zasobów, ich opracowanie, przetwarzanie i organizację do transferowania, udostępniania, zachowania i zabezpieczania).
Książka adresowana jest w równym stopniu do informatologów oraz studentów i doktorantów zgłębiających dorobek tej dyscypliny, jak również do wszystkich innych badaczy i profesjonalistów zainteresowanych szeroko rozumianym zarządzaniem informacją, bez względu na to, z jakiej dyscypliny się wywodzą i z jaką się identyfikują. W moim przekonaniu bowiem, jedną z istotniejszych barier rozwoju naukowej wiedzy na temat różnych kontekstów i aspektów tej problematyki jest fragmentaryzacja badań i rozważań podejmowanych często niezależnie, a nawet w oderwaniu od dorobku zbudowanego w różnych obszarach nauki.
Książka z jednej strony identyfikuje i uświadamia potencjał informatologii dla diagnozowania różnych aspektów zarządzania informacją, a z drugiej odzwierciedla zróżnicowanie i szeroki zakres problematyki podejmowanej przez polskich badaczy. Choć z pewnością można byłoby wskazać jeszcze więcej szczegółowych zagadnień z zakresu diagnostyki w zarządzaniu informacją interesujących innych informatologów, a w doborze autorów widoczna jest pewna nadreprezentacja środowiska związanego z Instytutem Informacji Naukowej i Bibliotekoznawstwa Uniwersytetu Jagiellońskiego, w którym książka powstała, to mam nadzieję, że zaprezentowane w niej szerokie podejście do problematyki może uczynić z książki interesujący punkt wyjścia do dyskusji i projektowania nowych badań. Wierzę również, że będzie ona inspiracją dla rozwoju potencjału informatologii w tym zakresie oraz przyczyni się do upowszechniania wiedzy o tym potencjale wśród przedstawicieli innych dyscyplin podejmujących lub odnoszących się do zagadnień zarządzania informacją.
Książka składa się z trzech części, w których zaprezentowano łącznie dwadzieścia dwa artykuły badaczy z różnych polskich ośrodków informatologicznych. W części pierwszej pod tytułem Koncepcje i podejścia zgromadzone zostały rozważania, analizy i propozycje dotyczące różnych aspektów zarządzania informacją. Rozpoczyna ją artykuł, w którym przedstawiona została syntetyczna (choć zapewne subiektywna i częściowo postulatywna) wizja diagnostycznego potencjału informatologii w ogóle, po którym czytelnik znajdzie teksty odnoszące się już bezpośrednio do diagnostyki systemów i zachowań informacyjnych. Część druga, zatytułowana Metody i narzędzia, obejmuje artykuły odnoszące się do sposobów i możliwości diagnozowania kompetencji, zjawisk, rozwiązań i narzędzi związanych z zarządzaniem informacją w różnych środowiskach, uporządkowane w taki sposób, by teksty odnoszące się do zbliżonych zagadnień znalazły się możliwie blisko siebie. Z kolei w części trzeciej, zatytułowanej Przypadki i przykłady, zebrano teksty przedstawiające przede wszystkim konkretne badania i ich wyniki, co jednak nie oznacza, że nie zawierają one odniesień do szerszych koncepcji teoretycznych warunkujących ich prowadzenie.
Dziękując wszystkim autorom za udział w tym przedsięwzięciu, chciałbym wyrazić nadzieję, że książka stanie się inspiracją dla podejmowania kolejnych badań i ułatwi ich projektowanie, a także pomoże w promocji dorobku informatologii w tym zakresie i jego szerszego wykorzystania w praktyce zarządzania informacją.
Remigiusz Sapa
Część I
KONCEPCJE I PODEJŚCIA
Sabina Cisek, Remigiusz Sapa
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Diagnostyczny potencjał informatologii
Diagnostic potential of information science
Słowa kluczowe: diagnostyka, informatologia, metodologia, paradygmat, przedmiot badań.
Keywords: diagnostics, information science, methodology, paradigm, research objects.
Abstrakt
Celem rozważań jest wypracowanie propozycji spojrzenia na potencjał informatologii (nauki o informacji, ang. information science) w zakresie diagnostyki zarządzania informacją. W oparciu o piśmiennictwo przeprowadzono analizę kluczowych uwarunkowań paradygmatycznych, przedmiotowych i metodologicznych kształtujących możliwości dyscypliny w tym względzie, by w efekcie sformułować wnioski na temat warunków, jakie stwarza ona dla badacza podejmującego problematykę diagnostyki zarządzania informacją. Zdaniem autorów, informatologia, dzięki swojej wieloparadygmatyczności i zróżnicowanemu polu badawczemu skłania do całościowego spojrzenia na problemy zarządzania informacją ponad tradycyjnymi podziałami dyscyplinarnymi. Sprzyja też nierozdzielaniu pierwiastka ludzkiego od technicznego, humanistycznego od społecznego. Dodatkowo, także dzięki adaptacji szerokiego spektrum podejść, metod i technik badawczych, jest dyscypliną oferującą szczególnie sprzyjający grunt dla prowadzenia wieloaspektowej i holistycznej diagnostyki zarządzania informacją.
Abstract
The purpose of this article is to develop a view on the potential of information science for information management diagnostics. Based on the literature, an analysis of the key
paradigmatic, objective and methodological determinants of this discipline has been made, and as a result, several conclusions about the conditions it offers to researchers involved in diagnosing various aspects of information management have been formulated. In the authors’ opinion, information science, thanks to its multi-paradigmatic approach and
diverse research field, encourages a holistic view of information management problems above and beyond traditional disciplinary divisions. It also favours the non-separation of human and technical factors, as well as humanistic views and social perspectives. In addition, also through the adaptation of a wide spectrum of approaches, research methods and techniques, information science is a discipline offering particularly fertile ground for multi-faceted and holistic diagnostics of information management.
Wstęp
Diagnostyka rozumiana jako proces prowadzący do sformułowania diagnozy, czyli wykonane na podstawie badań i analiz rozpoznanie i ocena stanu, prognoza zmian tego stanu lub określenie przyczyn tych zmian, ma stanowić punkt wyjścia dla podejmowania decyzji i działań mających na celu kontrolowanie jakiegoś fragmentu rzeczywistości, jego zmianę w pożądanym kierunku lub stabilizację. Rozwija się na pograniczu między badaniami podstawowymi, dającymi rozpoznanie i wyjaśnienie zjawisk, a badaniami stosowanymi, zmierzającymi przede wszystkim do określenia sposobów wpływania na rzeczywistość i osiągania określonych celów. Można nawet zaryzykować tezę, że diagnostyka łączy te dwa nurty badań, dostarczając wskazań dla działań praktycznych, ale w oparciu o naukowe zrozumienie ich uwarunkowań. Jednocześnie, co wydaje się oczywiste, różne dyscypliny naukowe, ze względu nie tylko na przedmiot zainteresowania, ale także na swoją specyfikę paradygmatyczną (metateoretyczną) i metodologiczną, oferują odmienne możliwości w zakresie diagnostyki.
Celem rozważań będzie wypracowanie propozycji uporządkowanego spojrzenia na diagnostyczny potencjał informatologii (nauki o informacji, information science). Propozycji, bo nadal trwa dyskusja na temat samej informatologii jako dyscypliny naukowej, i potencjału, bo chodzi tutaj o określenie warunków, jakie stwarza do prowadzenia diagnostyki, a nie o zbadanie, co i jak informatologia diagnozuje. Przedstawiony obraz będzie nacechowany subiektywnie i postulatywnie, odzwierciedlając niektóre poglądy autorów na temat informatologii i jej pożądanych kierunków rozwoju.
Artykuł składa się z trzech części, poświęconych kolejno aspektom paradygmatycznym, przedmiotowym i metodologicznym diagnostyki informatologicznej.
Aspekty paradygmatyczne
Informatologia, choć w inny sposób i z odmiennym nasileniem w swoich różnych nurtach (szerzej o tych nurtach – np. Cibangu, 2010; Cibangu, 2015; Cisek, 2002; Cisek, 2009b; Hjørland, 2017; Sosińska-Kalata, 2015), jest dyscypliną mocno powiązaną z praktyką działalności człowieka, a nawet przyjmującą „inżynierski” charakter (Górny, 2004). Według niektórych jest wręcz jednocześnie nauką i profesją (Bawden, Robinson, 2012; Saracevic, 1999, s. 1051) i należy do tych dyscyplin, których przedstawiciele powinni być zarówno akademikami tworzącymi (odkrywającymi) nową wiedzę metodami naukowymi, a jednocześnie profesjonalistami, od których oczekuje się biegłego opanowania określonych umiejętności praktycznych (por. Hjørland, 2017, s. 39), tak samo jak np. od językoznawcy czy przedstawiciela nauk medycznych. W dużym stopniu wyrosła z potrzeby usprawniania praktyki zarządzania informacją, która przyświecała już pracom Melvila Deweya, Paula Otleta i Henriego La Fontaine’a na przełomie XIX i XX w., narodzinom „poprzedniczek” informatologii – bibliografii i dokumentacji, a także skupieniu uwagi badaczy na systemach informacyjnych, rozumianych w kategoriach organizacyjnych i technicznych, oraz technologiach informacyjnych po II wojnie światowej. Taka perspektywa widoczna jest również po rozwinięciu paradygmatycznym dyscypliny w kierunku zainteresowania człowiekiem i jego zachowaniami informacyjnymi, które w ostatnich dziesięcioleciach XX wieku znalazło wyraz między innymi w podejściu kognitywnym i socjo-kognitywnym. Zrozumienie procesów myślowych człowieka i jego działań w różnych kontekstach miało bowiem – w pewnym uproszczeniu – służyć przede wszystkim doskonaleniu i lepszemu projektowaniu przeznaczonych dla niego usług i systemów informacyjnych (Cronin, 2008, s. 469; Woźniak 1997, s. 3-5).
Choć jednocześnie informatologia, jak każda w miarę dojrzała dyscyplina, wykształciła także badania podstawowe i związane z nimi teorie (np. w obszarach zachowań informacyjnych, organizacji informacji czy informetrii), to wydają się one, jako punkt wyjścia do kontrolowania przestrzeni i działań informacyjnych człowieka, także nakierowane na efekt praktyczny, tyle że w dalszej perspektywie. Niezależnie od oceny stopnia wykształcenia i roli teorii informatologicznych (por. Hjørland, 2017, s. 42), nie ulega wątpliwości, że są tworzone i mogą inspirować kolejne badania (np. Fisher, Erdelez, McKechnie eds., 2005).
Informatologia jawi się jako dyscyplina, w której, inaczej niż np. w niektórych naukach humanistycznych, perspektywa działań praktycznych i chęć ich usprawniania w dużym stopniu wyznaczają kierunki badań stosowanych i podstawowych, co wydaje się stwarzać idealne warunki do rozwoju diagnostyki rozumianej tak, jak zostało to określone we wstępie. Jednak ten potencjał informatologii ma też istotne ograniczenie – zdaniem Birgera Hjørlanda brakuje konsekwencji w przechodzeniu od konkretów do refleksji i z powrotem (2013a, s. 230-231), czyli rzeczywistych powiązań między teorią i działaniami praktycznymi. Propozycje teoretyczne zbyt często pozostają bez ugruntowania i potwierdzenia empirycznego, a wyniki informatologicznych badań empirycznych zbyt rzadko stanowią budulec dla oryginalnych teorii naukowych, co sprzyja zapożyczaniu teorii sprawdzonych w innych dyscyplinach i może utrudniać rozwijanie diagnostyki w oparciu o zweryfikowane teorie informatologiczne. Rozwijanie podejścia diagnostycznego, którego celem byłoby właśnie formułowanie ocen i wskazań dla praktyki w oparciu o podstawy naukowe, powinno przyczynić się do zintegrowania tych obszarów i nadania większej spójności samej dyscyplinie.
Jedną z charakterystycznych cech współczesnej informatologii, przynajmniej w opinii autorów niniejszego tekstu, jest współwystępowanie różnych paradygmatów badawczych (Cisek, 2002; Sapa, 2013), co można zinterpretować jako wyraz przewagi dążenia do rozwiązywania rzeczywistych problemów na poziomie empirycznym nad skłonnością do budowania zwartej tożsamości paradygmatycznej dyscypliny albo jako sytuację typową dla nauk humanistycznych i społecznych. Badacze sięgają do różnych metateorii i odwołują się do perspektyw różnych nauk (np. Bates, 2005; Cibangu, 2010), a spojrzenie humanistyczne przeplata się ze społecznym, czemu towarzyszy także punkt widzenia nauk przyrodniczych oraz technicznych. To dyscyplina, w której podejście idiograficzne, zmierzające do odkrywania i analizowania unikatowych zjawisk o silnej specyfice kontekstualnej (jak np. w niektórych badaniach zachowań informacyjnych czy indywidualnego zarządzania informacją), towarzyszy podejściu nomologicznemu, które każe szukać trwałych i uniwersalnych praw i zasad, najlepiej możliwych do wyrażenia w postaci zmatematyzowanej (jak np. w ramach bibliometrii). Podejście typowe dla obiektywizmu, zakładające niezależne od obserwatora istnienie przedmiotu badań o określonych cechach (np. w nurcie zbliżonym do technologii, gdzie bada się też cechy narzędzi zarządzania informacją w ogóle, a nie tylko to, jak je „widzą” konkretni użytkownicy), współistnieje z podejściem wyraźnie konstruktywistycznym, w dużym uproszczeniu zakładającym, że poznanie jest zjawiskiem wewnątrzkulturowym i to człowiek nadaje obserwowanej rzeczywistości określone znaczenia (widoczne choćby w koncepcji sense-making – Dervin, 1992) (por. też Cisek, 2002; Hjørland, 1998; Talja, Tuominen, Savolainen, 2005).
Z akceptacją dla różnych paradygmatów badawczych wiąże się także otwartość informatologii w relacjach z innymi dyscyplinami: z jednej strony informatolodzy, dążąc do rozwiązania konkretnych problemów informacyjnych, wkraczają na grunt innych nauk, a z drugiej nie stronią od zapożyczeń spoza własnej dyscypliny. Powiązania interdyscyplinarne informatologii mają bardzo szeroki charakter (Pindlowa, 1984, s. 28, 60; Sosińska-Kalata, 2007, s. 101-108; Sosińska-Kalata, 2015; Zins, 2007, s. 529-530).
Taka wieloparadygmatyczność i otwartość na inne dyscypliny oznacza możliwość spoglądania na przedmiot diagnozy z różnych perspektyw oraz ułatwia dostrzeganie i uwzględnianie jego wielu aspektów i kontekstów. Sprzyja holistycznemu podejściu do diagnozowania (szerzej o holizmie w informatologii – Sapa, 2013), a tym samym redukuje ryzyko pominięcia ważnych czynników niezauważalnych z jakiejś jednej, wybranej perspektywy badawczej. Dostrzegana w informatologii złożoność relacji człowieka i informacji wręcz wymusza takie szerokie podejście do ich badania (np. Fidel i in., 2004, s. 941). W przeciwnym razie mogłoby dochodzić do niepożądanych konsekwencji, przypominających efekty diagnozowania chorego przez różnych wąsko wyspecjalizowanych i niekonsultujących się ze sobą lekarzy – każdy może zidentyfikować inną chorobę i wdrożyć odmienne leczenie lub lecząc rozpoznaną przez siebie chorobę, zaszkodzić pacjentowi w innych obszarach. W odniesieniu do zarządzania informacją sytuację tę dobrze ilustruje podejście do oceny (diagnozowania) systemów informacyjnych. Jeśli dla informatyka oznacza to przede wszystkim ocenę samego narzędzia technicznego, dla specjalisty w zakresie zarządzania – np. wpływ na podejmowanie decyzji czy parametry ekonomiczne, to dla informatologa taka diagnoza obejmować może i powinna różne heterogeniczne elementy swego rodzaju ekologii, w jakiej działa dany system: narzędzie techniczne, infrastrukturę, kompetencje informacyjne użytkowników i ich zachowania informacyjne (także w wymiarze kognitywnym, emocjonalnym i społecznym), zastosowane narzędzia lingwistyczne, komunikację wewnątrz i na zewnątrz takiej ekologii, zarządzanie wykorzystywanymi kolekcjami i zasobami informacji, procesy pozyskiwania informacji do systemu itd.
Kolejną kwestią ważną dla potencjału diagnostycznego informatologii jest jej stosunek do „pierwiastka ludzkiego”. Zdaniem autorów niniejszego tekstu, generalnie rzecz biorąc przedmiotem informatologii są relacje człowieka z informacją rozumianą jako zakodowana i utrwalona wiedza ludzka (artefakt), wytworzoną intencjonalnie na użytek człowieka i przeznaczoną do transferu w czasie lub przestrzeni. Informatologia nie tyle skupia się na bitach czy bajtach, nie ogranicza się do informacji jako „rzeczy”, choć takie jej rozumienie także dopuszcza (Buckland, 1991), ale interesuje się informacją tworzoną przez człowieka dla człowieka i traktuje ją w kategoriach znaczeń nadawanych jej właśnie przez człowieka. Takie podejście odróżnia (ale nie oddziela, a raczej uzupełnia) informatologię między innymi od informatyki. Z drugiej strony współcześnie mocna pozycja „pierwiastka ludzkiego” nie oznacza zarzucenia dokumentarnego wymiaru informacji i choć ostateczny sens i wartość nadaje jej człowiek, to pewne aspekty zarządzania informacją (dokumentami) (np. archiwizowanie czy przetwarzanie do różnych postaci fizycznych) skłaniają do traktowania jej przede wszystkim w kategoriach właśnie obiektów materialnych. Stosunek do „pierwiastka ludzkiego” nie przesądza też o przynależności informatologii do nauk humanistycznych czy społecznych (por. Cronin, 2008; Cibangu, 2010; Cibangu 2015), jeśli w ogóle taki podział ma sens. W dzisiejszej informatologii relacje człowieka z informacją postrzegane są w kontekście społecznym (np. komunikacji, sieci powiązań, wymiany czy dzielenia się informacją), a zjawiska informacyjne odnoszące się do grup społecznych – w kontekście zachowań, a także emocji i procesów kognitywnych jednostek. Informatologia, badając relacje człowieka z informacją, łączy problematykę zachowania ludzi i zagadnienie informacji (a zatem też systemów, procesów i narzędzi zarządzania informacją) jako społecznego wytworu szeroko rozumianej kultury.
Jak taka pozycja „pierwiastka ludzkiego” wpływa na potencjał diagnostyczny dyscypliny? Przede wszystkim pozwala przezwyciężyć nadmierny redukcjonizm diagnostyki (szczególnie w obszarze zarządzania informacją) wykonywanej z perspektywy nauk technicznych czy ekonomicznych i w szerszym stopniu uwzględniać czynniki wynikające z natury człowieka i tworzonej przez niego kultury. Pozwala analizować zjawiska informacyjne także przez pryzmat konkretnych kultur, kontekstów społecznych i charakterystyki indywidualnych uczestników diagnozowanych zjawisk, a zatem z perspektywy często bardzo lokalnej i specyficznej. Tym samym zmniejsza ryzyko powstawania nietrafnych diagnoz w wyniku dehumanizacji postrzegania zjawisk informacyjnych lub traktowania człowieka w relacjach z informacją w kategoriach standaryzowanego, odpersonalizowanego abstraktu (choć ten potencjał nie zawsze jest wykorzystywany przez samych informatologów, którzy chętnie posługują się często tak właśnie rozumianym pojęciem „użytkownika”). Informatologia pozwala na dokonanie diagnozy nie tylko z perspektywy eksperta i w odniesieniu do pewnych uniwersaliów, ale także z perspektywy rzeczywistych uczestników procesów informacyjnych w ich subiektywnym ujęciu (np. Hjørland, 2013b). Co więcej, eksplorując ów „pierwiastek ludzki” w świecie informacji, dyscyplina ta posiada już rozległy dorobek empiryczny i teoretyczny m.in. w zakresie wspominanych już zachowań informacyjnych czy kompetencji informacyjnych człowieka, który może stanowić dobry fundament dla prowadzenia badań diagnostycznych.
Aspekty przedmiotowe
Diagnostyczny potencjał informatologii jest także warunkowany przez jej pole badawcze (przedmiot zainteresowania rozumiany w kategoriach konkretnych, szczegółowych zagadnień będących obiektami badań). Nie brakuje badań mających na celu rozpoznanie struktury przedmiotowej dyscypliny (z nowszych np. Sosińska-Kalata, 2013; Tuomaala, Järvelin, Vakkari, 2014; Zhao, Strotmann, 2014), które jednak na poziomie szczegółowym mogą prowadzić do różnych wniosków w zależności od doboru próby piśmiennictwa do badań, metody ich prowadzenia czy wreszcie decyzji w zakresie tworzenia kategorii przez samych badaczy na etapie opracowania zebranego materiału.
Nie wchodząc w dyskusję z ich wynikami, biorąc pod uwagę tylko kryterium przedmiotowe i pozostając na wysokim stopniu uogólnienia, można wskazać dwa zasadnicze obszary zainteresowania informatologii: szeroko rozumiane systemy informacji (a zatem też środowiska, sieci i zasoby informacyjne) oraz zachowania informacyjne człowieka. Przy czym zgodnie z proponowaną tutaj wizją dyscypliny, podziały te nie są traktowane jako wykluczające i odnoszą się do wyboru głównej perspektywy badawczej, jednak nie oznaczając całkowitej rezygnacji z żadnej z nich. Z jednej strony informatologia bada różne aspekty systemów informacji, w tym zasoby i procesy informacyjne, organizację informacji i języki informacyjno-wyszukiwawcze czy usługi i produkty informacyjne, ale też narzędzia i rozwiązania techniczne i organizacyjne służące zarządzaniu informacją, w kontekście lub z perspektywy człowieka, uczestnika lub użytkownika tych systemów.
Z drugiej strony interesują ją szeroko rozumiane zachowania informacyjne, a także warunkujące je potrzeby i kompetencje informacyjne, kultura informacyjna, czynniki kognitywne lub afektywne czy determinanty społeczne, ale właśnie w odniesieniu do szeroko rozumianych systemów informacji lub w przynajmniej w ich kontekście. Badania stanowiące zróżnicowany nurt „metryczny” (informetria, naukometria, bibliometria) w takim ujęciu też nie są niczym odrębnym. Choć nacisk może być w nich położony na odkrywanie ilościowych charakterystyk systemów informacji (np. wybranego fragmentu środowiska WWW czy zasobów informacyjnych jakiejś dyscypliny naukowej) lub na zachowania człowieka (np. motywacje stojące za przypisami w tekstach naukowych), to u podstaw tego typu badań leżą wzajemne powiązania tych dwóch obszarów – każde cytowanie jest w końcu formą zachowania informacyjnego (citation behaviour), a jednocześnie współtworzy pewien system informacyjny o określonych parametrach i specyfice. Blaise Cronin, wskazując między innymi na istotne relacje między badaniami bibliometrycznymi i socjologicznymi analizami sieci społecznych, posługuje się nawet pojęciem socio-scientometrics (Cronin, 2008, s. 470).
Co zatem może i powinno być przedmiotem szczególnego zainteresowania współczesnej diagnostyki informatologicznej? Zdaniem autorów tego artykułu przede wszystkim właśnie taki kompleks zjawisk ujmujący w jedno relacje człowieka z informacją, a zatem np. technologie informacyjne z ich użytkowaniem, architekturę informacji z percepcją informacji przez człowieka, analizę domen wiedzy z kulturą informacyjną ich przedstawicieli, organizację informacji z jej konsekwencjami dla możliwości jej pozyskiwania przez człowieka itp. Diagnozowanie informatologiczne nie tyle dotyczyłoby zatem np. samej sprawności technicznej jakiegoś urządzenia lub narzędzia wspierającego procesy zarządzania informacją, co efektów osiąganych lub odczuwanych przez korzystającego z niego człowieka, ocenianych w kontekście jego potrzeb, celów i uwarunkowań, znajdujących wyraz w zmianie stanu jego wiedzy czy postaw, w podejmowanych decyzjach czy w sposobie realizowania konkretnych działań. Wchodząc „głębiej” w zagadnienia informatologiczne, należy stwierdzić, że diagnostyka nie powinna zatrzymywać się np. na etapie oceny poziomu relewancji technicznej (rozumianej jako syntaktyczna zgodność instrukcji wyszukiwawczej z charakterystyką wyszukiwawczą obiektów) zapewnianej przez pewien system informacyjno-wyszukiwawczy albo oceny kompletności jakiejś kolekcji informacji w odniesieniu do puli dokumentów dostępnych w danym środowisku informacyjnym. Przeciwnie, powinno się dążyć do zdiagnozowania stopnia pertynencji (relewancji pragmatycznej – zdolności do zaspokajania potrzeb informacyjnych czy rozwiązywania rzeczywistych sytuacji problemowych użytkowników) uzyskiwanych wyników wyszukiwania czy posiadanych zbiorów informacji (definicje terminów – zob. Bojar oprac., 2002, s. 230-231). Z drugiej strony, diagnozując szeroko rozumiane zachowania informacyjne człowieka, nie chodzi w informatologii o ocenę np. jego stanu zdrowia czy możliwości w ogóle, ale o charakterystykę czy sprawność jego działań w konkretnym środowisku (systemie) informacyjnym, o wszelkie (np. ekonomiczne, kognitywne, kulturowe, społeczne, techniczne) uwarunkowania tych działań i ich ewentualne konsekwencje dla tego środowiska i innych jego uczestników.
Aspekty metodologiczne
Metodologia informatologicznej (albo szerzej – informacyjnej) diagnostyki stanowi zagadnienie obszerne i wielowymiarowe, którego pełnego spektrum nie sposób przedstawić w krótkim artykule. W niniejszym tekście omówione są więc jedynie wybrane jej aspekty, z intencją zasygnalizowania najważniejszych problemów poznawczych, wykorzystywanych metod itd. – i z odesłaniem do specjalistycznej literatury przedmiotu, w celu ewentualnego dalszego, pogłębionego przestudiowania wskazanych tutaj kwestii.
Charakterystyczne dla nauki o informacji jest wykorzystywanie dużej liczby zróżnicowanych strategii, metod i technik badawczych, z reguły przejętych z innych dyscyplin i zaadaptowanych do potrzeb badań informatologicznych. Wynika to m.in. ze wspomnianej już wieloparadygmatyczności, holistycznego podejścia, interdyscyplinarności (w tym licznych związków z innymi naukami), a także ze specyfiki przedmiotu i pola badawczego współczesnej informatologii, obejmującego obiekty, procesy i zjawiska o różnym statusie ontologicznym i epistemologicznym. Sytuacja ta, rzecz jasna, warunkuje również dociekania o charakterze diagnostycznym. Innymi metodami będziemy badali np. istniejące subiektywnie potrzeby informacyjne, będące stanami psychicznymi ludzi (zdaniem niektórych), odmiennymi – sposoby uporządkowania obiektywnie funkcjonującej wiedzy, a jeszcze innymi – techniczną sprawność „materialnych” systemów informacyjnych. Nie sposób zatem stworzyć ostatecznego, wyczerpującego zestawu stosowanych lub możliwych do zastosowania diagnostycznych procedur badawczych, także dlatego, że ustawicznie pojawiają się nowe. Tutaj wymienione są więc tylko niektóre z nich. Do wyboru mamy zatem strategie badawcze – ilościową, jakościową i mieszaną (Cisek, 2010b; Cisek, 2013; Stefaniak, Skalska-Zlat, Cisek, 2016) oraz związane z tym generalne podejścia – czy zamierzamy prowadzić badania z perspektywy eksperta, czy z punktu widzenia użytkownika informacji; metody (plany badawcze), w tym analizę dokumentów zastanych (desk research), analizę i krytykę piśmiennictwa, badanie w działaniu (action research), benchmarking, etnografię, fenomenografię, metodę delficką, metodę Sense-Making, sondaż diagnostyczny, studium przypadku, technikę incydentów krytycznych (CIT), teorię ugruntowaną i inne (Bawden, Robinson, 2012, s. 303-326; Cisek, 2008; Cisek, 2009a; Cisek, 2010a; Library and Information, 2012; Pickard, 2013; Sapa, 2005; Wilson, 1982; Wiorogórska, 2012); oraz zróżnicowane techniki gromadzenia i analizy danych empirycznych (zob. dalej). Spośród wymienionych metod na szczególną uwagę zasługują analiza i krytyka piśmiennictwa, zawsze bowiem należy zapoznać się z dotychczasowym dorobkiem przez przystąpieniem do diagnozowania; badanie w działaniu, ponieważ w jego ramach idee (wnioski) są „od razu” wdrażane i następuje weryfikacja diagnozy z możliwością jej bieżącego udoskonalenia; oraz studium przypadku ze względu na idiograficzną, jednostkową intencję dociekań diagnostycznych (Ziemski, 1973, s. 186-187).
Badania diagnostyczne w informatologii, podobnie zresztą jak w innych dyscyplinach, mają charakter naukowy oraz empiryczny; obowiązują w nich zatem procedury, reguły i założenia metodologiczne charakterystyczne dla poznania naukowego w ogóle. Między innymi, diagnoza – jako produkt procesu diagnostycznego – powinna być intersubiektywnie komunikowalna i sprawdzalna (Frankfort-Nachmias, Nachmias, 2001, s. 30-31), a także możliwa do obalenia, czyli falsyfikowalna (por. np. Grobler, 2008, s. 69-70). Oznacza to, że zawsze należy zapewnić innym (badaczom, decydentom, współpracownikom) możliwość skontrolowania zasadności naszych stwierdzeń i wniosków. W praktyce rzecz sprowadza się do pozostawienia tzw. „ścieżki sprawdzenia”; trzeba zatem jasno napisać, np. w raporcie z badań, w jaki sposób doszliśmy do określonych rezultatów, przy użyciu jakich metod i technik badawczych, na podstawie jakich danych empirycznych, rozumowań oraz założeń, jak pojmujemy terminy, których używamy itp. Takie postępowanie przyczyni się także, rzecz jasna, do rzetelności i wiarygodności diagnozy informatologicznej (zob. dalej).
Poza tym, co jest już specyficzne dla diagnozy, powinna ona zawierać element oceny rzeczywistości oraz nadawać się do wdrożenia, zastosowania (Ziemski, 1973, s. 176-184). Dodatkowo, badania diagnostyczne podzielić można na heurystyczne, odkrywające procesy, zjawiska itp., ich genezę i inne zależności oraz weryfikacyjne, sprawdzające postawioną uprzednio diagnozę. Te drugie – jak pisze Stefan Ziemski – „są niezbędne wtedy, gdy badane zjawisko jest skomplikowane bądź przedmiot trudny do rozpoznania, a więc gdy trzeba wyłączyć możliwość pomyłki. Badania weryfikacyjne towarzyszą oddziaływaniu na przedmiot diagnozowany, czy to będzie organizm ludzki, psychika wychowanka, czy zaburzenie w jakiejś instytucji (…)” (Ziemski, 1973, s. 195). Sytuacja taka ma często miejsce w informatologii i działalności informacyjnej.
Diagnostyka, także informatologiczna, ma – jak już wspomniano – nachylenie idiograficzne, aczkolwiek elementy nomotetyczne nie tylko mogą, ale czasami nawet powinny się pojawić. Badania diagnostyczne mają za zadanie:
−
rozpoznanie obecnego stanu rzeczy, stanu faktycznego, cech i reguł funkcjonowania (konkretnego) obiektu, procesu lub zjawiska itd. – czyli eksplorację oraz opis,
−
wyjaśnienie tegoż stanu lub jego zrozumienie,
−
ocenę badanej grupy, instytucji, środowiska (czy jest tak, jak być powinno oraz czy i co można/należy usprawnić) – i w efekcie
−
prognozowanie, przewidywanie przyszłych potrzeb, problemów, zdarzeń itp. (zob. m.in. Schimanek, 2015; Szatur-Jaworska, 2008; Ziemski, 1973).
Takie funkcje skądinąd pełni poznanie naukowe w ogóle (Babbie, 2013, s. 107-114; Frankfort-Nachmias, Nachmias, 2001, s. 23-28; Pilch, Bauman, 2001, s. 22-23), jednakże nie w każdym przedsięwzięciu badawczym wszystkie muszą wystąpić jednocześnie. Wydaje się jednak, iż w diagnostyce powinny, a to ze względu na jej prymarne zadanie. Mianowicie, jeżeli diagnoza ma być podstawą do interwencji oraz racjonalnego (nakierowanego na osiągnięcie zamierzonego celu) podejmowania decyzji, to winniśmy wiedzieć nie tylko jak jest i dlaczego tak jest, ale móc również prognozować skutki zmian wprowadzanych intencjonalnie w danym środowisku.
Każda diagnoza rozpoczyna się od eksploracji i opisu obiektu badanego. Jak piszą Wiesław Janik i współautorzy (2014, s. 9): „Punktem wyjścia w badaniach diagnostycznych jest inwentaryzacja cech badanego obiektu. Cechami nazywa się własności ludzi, przedmiotów i zdarzeń. Zespół cech charakteryzujących dany obiekt w określonym czasie nazywa się stanem obiektu. Cechy określające ten stan mogą mieć charakter stały (immanentne cechy obiektu) i niestały (pojawiające się wtedy, gdy stan obiektu odbiega od przyjętych wzorców i norm)”.
„Wyjaśnić” znaczy przede wszystkim odpowiedzieć na pytanie „dlaczego?”. Istnieją jednak różne rodzaje wyjaśniania – przez podanie przyczyn (Grobler, 2008, s. 101-133), funkcjonalne, intencjonalne, genetyczne, teleologiczne (Nowak, 1985, s. 351-381; Pilch, Bauman, 2001, s. 28-33). Odmienne sposoby wyjaśniania wiążą się w dużej mierze z rozróżnieniem typów diagnoz, których Stefan Ziemski (1973, s. 74) wymienia pięć: diagnoza przyporządkująca do gatunku albo typu, diagnoza genetyczna, diagnoza znaczenia dla całości, diagnoza fazy, diagnoza rozwojowa, czyli prognostyczna. Dopiero wszystkie razem tworzą diagnozę pełną, wyczerpującą.
W kontekście przewidywania naukowego możemy mówić o dwóch efektywnych narzędziach. Pierwszym z nich są uogólnienia, czyli prawa, modele, teorie charakterystyczne przede wszystkim – ale nie wyłącznie – dla podejścia ilościowego. Nie oznacza to, że każda diagnoza ma prowadzić do sformułowania uniwersalnych reguł (aczkolwiek twierdzi się czasami, że „najbardziej praktyczną rzeczą na świecie jest dobra teoria”), wręcz przeciwnie – diagnostyka nakierowana jest raczej na lokalność, ale przynajmniej powinna uchwycić jakiś porządek – powtarzalne prawidłowości, relacje, struktury, uwarunkowania (np. genezę jakiegoś zjawiska) – bez tego nie da się prognozować. Drugie narzędzie stanowią interpretacja i dogłębne zrozumienie konkretnych przypadków (grup, systemów, zdarzeń itp.), a następnie wnioskowanie przez analogię na przypadki kolejne, co jest typowe dla strategii jakościowej (Cisek, 2013).
Badaniom diagnostycznym w nauce o informacji, tak jak i większości dociekań informatologicznych, przyświeca cel utylitarny. Diagnoza, jak już wcześniej wskazano, powinna stanowić podstawę do racjonalnego działania, poprawy czegoś, wprowadzenia zmian „na lepsze”. Jej dominującą cechą jest więc stosowalność (np. dla potrzeb zarządzania serwisem WWW, organizacji szkoleń, doskonalenia usług informacyjnych itp.), praktyczna przydatność. Badania – z metodologicznego punktu widzenia – należy zatem prowadzić tak, by owa przydatność została zapewniona w najwyższym możliwym stopniu. Co ją warunkuje? Można tu wymienić wiele czynników, w tym aktualność, zgodność z rzeczywistymi (a nie – deklarowanymi) potrzebami informacyjnymi decydenta albo organizacji, a przede wszystkim jakość, w tym wiarygodność wyników dociekań (aby diagnoza była przydatna musi być rzetelna, trafna, wiarygodna). Następujące czynniki zapewniają wiarygodność diagnozy:
−
właściwe uzasadnienie – w epistemologicznym znaczeniu tego terminu –
wyników badań,
−
rygor metodologiczny – wybór adekwatnych procedur badawczych oraz prawidłowe ich przeprowadzenie,
−
odpowiedni dobór przypadków do badania (próby) (zob. też dalej),
−
triangulacja – badaczy, danych, metodologiczna, teoretyczna,
−
informacja zwrotna od badanych (member check) (Chomczyński, 2012; Grobler, 2008; Hajduk, 2001; Hsieh, Shannon, 2005, s. 1280).
Współczesna nauka akceptuje cztery źródła uzasadnionego poznania, mianowicie: dotychczasowy dorobek nauki, utrwalony w odpowiednim piśmiennictwie; empirię, doświadczenie, obserwację – ale tylko taką, która odbywa się wg określonych reguł (metodologicznych); poprawne rozumowanie, w tym indukcyjne, hipotetyczno-dedukcyjne, wnioskowanie przez analogię, wnioskowanie statystyczne (np. Grobler, 2008; Hajduk, 2001); oraz założenia, explicite i implicite. Każdy z tych elementów powinien wystąpić w rzetelnym i wiarygodnym – a w konsekwencji przydatnym – postępowaniu diagnostycznym, w szczególności warto zwrócić uwagę na konieczność uświadomienia sobie i ujawnienia przyjmowanych założeń, także ze względu na wspomnianą już potrzebę intersubiektywnej sprawdzalności.
W badaniu diagnostycznym występuje kilka etapów, aczkolwiek nie zawsze w niezmiennej kolejności.
Krok pierwszy stanowi określenie celów, jakim ma służyć diagnoza (w szczególności – problemów do rozwiązania) oraz sposobów i zakresu wykorzystania jej wyników (Schimanek, 2015, s. 13); innymi słowy – następuje zdefiniowanie potrzeb badawczych oraz praktycznych. Jeżeli diagnozujemy na zlecenie jakiegoś podmiotu, a prawdopodobnie będzie to sytuacja najczęstsza, cele te należy wyartykułować w ścisłej współpracy z przedstawicielami danej grupy, przedsiębiorstwa czy systemu informacyjnego. Można to zrobić np. za pomocą burzy mózgów.
W drugim etapie formułuje się problem badawczy. Może przybrać on postać hipotezy bądź hipotez do weryfikacji (szczególnie w strategii ilościowej) albo zestawu pytań badawczych, czasami jedynie ogólnie ujętych – w podejściu jakościowym i mieszanym. Należy pamiętać, że w toku badań – w miarę postępującego zrozumienia danego środowiska – może okazać się, że rzeczywisty problem różni się od tego pierwotnie ustalonego i że należy go przeformułować, a w efekcie zmodyfikować także cele diagnostyczne.
Krok trzeci wiąże się z konceptualizacją i operacjonalizacją problemu badawczego (Babbie, 2013, s. 141-174). Definiujemy przydatne terminy – niekoniecznie ogólnie, ale raczej z punktu widzenia wymagań konkretnego przedsięwzięcia diagnostycznego. W informatologii ma to szczególne znaczenie ze względu na niejednoznaczność jej podstawowych wyrażeń, jak „dokument”, „informacja”, „proces informacyjny”, „użytkownik”, „źródło informacji”, które zapewne będą użyte w badaniu. „Przekładamy” również nieobserwowalne pojęcia teoretyczne, jak potrzeba informacyjna na ich obserwowalne aspekty (przejawy, wskaźniki), które da się uchwycić empirycznie (zarejestrować, zmierzyć, zobaczyć). Wybieramy następnie adekwatną do celu i problemu strategię poznawczą – ilościową, jakościową bądź mieszaną, a w jej ramach metody (zob. wcześniejsze akapity) oraz techniki i narzędzia badawcze (zob. dalej). Istotny jest także dobór próby, czyli zbioru obiektów badanych, np. dokumentów do analizy albo ludzi – respondentów. Istnieje kilka typów próby, w tym: celowa (w strategii jakościowej), kompletna (obejmująca wszystkie elementy populacji), losowa (w strategii ilościowej), samodobór respondentów oraz tzw. próba dogodna (convenience sample) (np. Bawden, Robinson, 2012, s. 320).
Z tego punktu widzenia wyróżnia się – jak pisze Barbara Szatur-Jaworska – diagnostyczne „badania całościowe (badamy wszystkie osoby, instytucje itd. tworzące interesującą nas populację czy zbiór), badania na próbach badawczych (dobieramy losowo lub celowo tylko niektóre obiekty, które „reprezentują” szerszy zbiór) oraz badania monograficzne (całościowe badanie wybranego środowiska społecznego, instytucji itd.)” (Szatur-Jaworska, 2008, s. 3).
Etap czwarty stanowi gromadzenie materiału empirycznego; należy jednak wziąć pod uwagę, iż w badaniu jakościowym (i mieszanym) odbywa się ono z reguły równolegle z analizą. Dane empiryczne mogą być niewywołane lub wywołane. Pierwsze z nich istnieją „naturalnie”, bez ingerencji badacza, np. emaile służbowe, instrukcje obsługi, kwerendy użytkowników w wyszukiwarkach; drugie powstają w wyniku czynności uczonego, np. podczas eksperymentu albo wywiadu. Trzeba jednak pamiętać, iż „czyste” dane empiryczne de facto nie istnieją, przeciwnie – zawsze są w jakimś stopniu konstruowane; mówi o tym teza o uteoretyzowaniu obserwacji (Grobler, 2008, s. 70-72, 90-91). Co więcej, wyselekcjonowanie i uznanie wybranego zbioru materiałów empirycznych za istotny w kontekście jakiegoś przedsięwzięcia diagnostycznego stanowi często decyzję kluczową, determinującą wyniki diagnozy i możliwości ich wdrożenia (Stefaniak, Skalska-Zlat, Cisek, 2016, s. 120). Generalnie, poszukując adekwatnego materiału empirycznego można wykonać cztery procedury: obserwować badany fragment świata; zapytać ludzi, którzy mają coś do powiedzenia w interesującej nas kwestii; zmienić rzeczywistość i zobaczyć, co z tego wyniknie, czyli zrobić eksperyment; albo przestudiować istniejące dokumenty – w szerokim tego słowa znaczeniu (zob. np. Bawden, Robinson, 2012). Zatem, do przydatnych w diagnostyce informatologicznej technik badawczych lub źródeł danych należą:
−
ankiety różnego typu (audytoryjna, online, tradycyjna itd.),
−
dokumenty (piśmiennicze, multimedialne, wizualne), już istniejące lub powstałe na prośbę badacza, oficjalne i nie (kwerendy, logi, notatki, ogłoszenia, pamiętniki, regulaminy, serwisy WWW, wpisy na forach i portalach społecznościowych, zarządzenia itp.),
−
dyskusja grupowa, zogniskowany wywiad grupowy (fokus),
−
eksperyment,
−
obserwacja w wielu wariantach (auto-obserwacja; bezpośrednia i pośrednia; etnograficzna; jawna i ukryta; naturalistyczna; shadowing; „tajemniczy klient”, uczestnicząca i nieuczestnicząca),
−
protokół głośnego myślenia,
−
statystyki (istniejące),
−
technika oprowadzania,
−
testy, np. kompetencji (cyfrowych, informacyjnych, uczenia się itd.), użyteczności,
−
wywiad indywidualny (kwestionariuszowy; narracyjny; pogłębiony; standaryzowany lub nie; swobodny; ustrukturyzowany, częściowo ustrukturyzowany lub niestrukturyzowany; Sense-Making i inne),
−
zadania i inne (lista nie jest zamknięta) (np. Cisek, 2013; Jemielniak red., 2012, t. 2, s. 41-67, 111-162; Pickard, 2013; Sapa, 2016; Shenton, 2004).
W etapie piątym analizujemy zgromadzony materiał empiryczny, stosując odpowiednie perspektywy analityczne i towarzyszące im techniki, jak analiza fenomenograficzna, analiza tematyczna, analiza wedle teorii ugruntowanej, jakościowa analiza zawartości (treści), metoda ustawicznego porównywania, tworzenie map pojęciowych, analiza bibliometryczna i webometryczna, analiza statystyczna, analiza decyzyjna, analiza SWOT i wiele innych (np. Charmaz, 2013; Cisek, 2014; Flick ed., 2014; Hsieh, Shannon, 2005; Liedel, Piasecka, Aleksandrowicz, 2012; Stefaniak, Skalska-Zlat, Cisek, 2016).
Krok szósty stanowią sformułowanie i zapis, np. w formie sprawozdania, wyników badań – czyli diagnozy, z reguły także sporządzenie wytycznych do działania. Często wystąpią jeszcze dwa dodatkowe etapy, tj. wdrożenie proponowanych rozwiązań a następnie monitorowanie skutków, zmian w krótszej bądź dłuższej perspektywie czasowej (po wprowadzeniu wskazań diagnozy w życie).
Zakończenie
Nie tylko w piśmiennictwie polskim, ale i w anglojęzycznym nie powstała, wedle najlepszej wiedzy autorów, publikacja obejmująca całość zagadnień diagnostyki informatologicznej bądź informacyjnej. Natomiast pewnym elementem czy formą takiej diagnostyki jest audyt informacyjny, na temat którego istnieje stosunkowo obszerna literatura przedmiotu, także w języku polskim, poruszająca m.in. jego aspekty metodologiczne (Materska 2011a; 2011b). Do niej więc odsyłamy zainteresowanego Czytelnika. Niniejszy tekst miał za zadanie określenie diagnostycznego potencjału informatologii w zakresie zarządzania informacją, a przy okazji stworzenie podstaw i zainspirowanie do dalszych rozważań teoretycznych oraz badań empirycznych we wskazanym obszarze.
Bibliografia
1.
Babbie, Earl (2013). Podstawy badań społecznych. Warszawa: Wydawnictwo Naukowe PWN.
2.
Bates, Marcia J. (2005). An introduction to metatheories, theories, and models.
In: Karen E. Fisher, Sanda Erdelez, Lynne McKechnie eds. Theories of information behaviour. Medford, NJ: Information Today, Inc., pp. 1-24.
3.
Bawden, David; Robinson, Lyn (2012). Introduction to information science. London: Facet Publishing.
4.
Bojar, Bożenna oprac. (2002). Słownik encyklopedyczny informacji, języków i systemów informacyjno-wyszukiwawczych. Warszawa: Wydawnictwo SBP.
5.
Buckland, Michael K. (1991). Information as thing. Journal of the American Society for Information Science, vol. 42, issue 5, pp. 351-360.
6.
Charmaz, Kathy (2013). Teoria ugruntowana. Praktyczny przewodnik po analizie jakościowej. Warszawa: Wydawnictwo Naukowe PWN.
7.
Chomczyński, Piotr (2012). Triangulacja. W: Krzysztof T. Konecki, Piotr Chomczyński red. Słownik socjologii jakościowej. Warszawa: Difin, s. 308-310.
8.
Cibangu, Sylvain K. (2010). Information science as a social science. Information Research, vol. 15, issue 3. http://informationr.net/ir/15-3/paper434.html (odczyt: 07.04.2017).
9.
Cibangu, Sylvain K. (2015). A new direction in information science research: making information science a human science. Information Research, vol. 20, issue 3. http://www.informationr.net/ir/20-3/paper686.html (odczyt: 07.04.2017).
10.
Cisek, Sabina (2002). Filozoficzne aspekty informacji naukowej. Kraków: Wydawnictwo UJ.
11.
Cisek, Sabina (2008). Badanie zachowań informacyjnych użytkowników bibliotek: metodologia Sense-Making. W: Maria Kocójowa red. Biblioteka: klucz do sukcesu użytkowników. Kraków: Instytut INiB UJ. http://hdl.handle.net/10760/13708 (odczyt: 17.05.2017).
12.
Cisek, Sabina (2009a). Metoda delficka w badaniach nauki o informacji i bibliotekoznawstwa w XXI wieku. Zagadnienia Informacji Naukowej, nr 1 (93), s. 25-32.
13.
Cisek, Sabina (2009b). Nauka o informacji na świecie w XXI wieku: badania metanaukowe. W: Dorota Degen, Małgorzata Fedorowicz red. Od książki dawnej do biblioteki wirtualnej. Przeobrażenia bibliologii polskiej. Toruń: Wydawnictwo Naukowe UMK, s. 47-56.
14.
Cisek, Sabina (2010a). Metoda analizy i krytyki piśmiennictwa w nauce o informacji i bibliotekoznawstwie w XXI wieku. Przegląd Biblioteczny, R. 78, nr 3, s. 273-284. http://www.academia.edu/12000638/Metoda_analizy_i_krytyki_piśmiennictwa_w_nauce_o_informacji_i_bibliotekoznawstwie_w_XXI_wieku (odczyt: 15.04.2017).
15.
Cisek, Sabina (2010b). Metodologia mieszana w badaniach nauki o informacji i bibliotekoznawstwa. W: Maria Kocójowa red. Biblioteki, informacja, książka: interdyscyplinarne badania i praktyka w 21. wieku. Kraków: Instytut Informacji Naukowej i Bibliotekoznawstwa UJ. http://eprints.rclis.org/15393/ (odczyt: 15.05.2015).
16.
Cisek, Sabina (2013). Metodologia jakościowa we współczesnej informatologii. Wybrane aspekty. Przegląd Biblioteczny, R. 81, z. 3, s. 299-310.
17.
Cisek, Sabina (2014). Analiza danych jakościowych we współczesnej informatologii. W: Barbara Sosińska-Kalata red. Nauka o informacji w okresie zmian. Warszawa: Wydawnictwo SBP, s. 79-88.
18.
Cronin, Blaise (2008). The sociological turn in information science. Journal of Information Science, vol. 34, issue 4, pp. 465-475.
19.
Dervin, Brenda (1992). From the mind’s eye of the user: the sense-making qualitative–quantitative methodology. In: Jack D. Glazer, Ronald R. Powell eds. Qualitative research in information management. Englewood: Libraries Unlimited, Inc., pp. 61-82.
20.
Fidel, Raya; Pejtersen, Annelise M., Cleal, Bryan; Bruce, Harry (2004). A multidimensional approach to the study of human-information interaction: a case study
of collaborative information retrieval. Journal of the American Society for Information Science American Society for Information Science, vol. 55, issue 11, pp. 939-953.
21.
Fisher, Karen E.; Erdelez, Sanda; McKechnie, Lynne eds. (2005). Theories of information behaviour. Medford, NJ: Information Today, Inc.
22.
Flick, Uwe ed. (2014). The SAGE Handbook of Qualitative Data Analysis. Los Angeles, London, New Delhi: SAGE.
23.
Frankfort-Nachmias, Chava; Nachmias, David (2001). Metody badawcze w naukach społecznych. Poznań: Zysk i S-ka.
24.
Górny, Mirosław (2004). Inżynierski czy poznawczy charakter nauki o informacji? W: Maria Kocójowa red. Przestrzeń informacji i komunikacji społecznej. Kraków: Wydawnictwo UJ, s. 40- 45.
25.
Grobler, Adam (2008). Metodologia nauk. Kraków: Wydawnictwo Aureus, Wydawnictwo Znak.
26.
Hajduk, Zygmunt (2001). Ogólna metodologia nauk. Wydanie II zmienione. Lublin: KUL.
27.
Hjørland, Birger (1998). Theory and metatheory of information science: a new interpretation. Journal of Documentation, vol. 54, issue 5, pp. 606-621.
28.
Hjørland, Birger (2013a). Information science and its core concepts: levels of disagreement. In: Fidelia lbekwe-SanJuan, Tom Dousa eds. Fundamental notions of information communication and knowledge. Dordrecht: Springer, pp. 205–235.
29.
Hjørland, Birger (2013b). User-based and cognitive approaches to knowledge organization: a theoretical analysis of the research literature. Knowledge Organization, vol. 40, issue 1, pp. 11–27.
30.
Hjørland, Birger (2017). Theoretical development of information science: a brief history. http://research.ku.dk/search/?pure=en/publications/theoretical-development-of-information-science-a-brief-history(b94a5382-3c13-455f-8417-8a2b024af4b9).html (odczyt: 07.04.2017).
31.
Hsieh, Hsiu-Fang; Shannon, Sarah E. (2005). Three Approaches to Qualitative Content Analysis. Qualitative Health Research, vol. 15, p. 1277-1288.
32.
Janik, Wiesław; Paździor, Artur, Paździor, Marta (2014). Analiza i diagnozowanie sytuacji finansowej przedsiębiorstwa. Lublin: Politechnika Lubelska.
33.
Jemielniak, Dariusz red. Badania jakościowe. T. 1 i 2. Warszawa: Wydawnictwo Naukowe PWN.
34.
Library and Information Research, vol. 36, issue 112 (2012). Research methodology in library and information studies (LIS). http://www.lirgjournal.org.uk/lir/ojs/index.php/lir/
issue/view/63 (odczyt: 15.05.2017).
35.
Liedel, Krzysztof; Piasecka, Paulina; Aleksandrowicz, Tomasz (2012). Analiza informacji. Teoria i praktyka. Warszawa: Difin.
36.
Materska, Katarzyna (2011a). Audyt informacji – metodologiczne problemy.
E-mentor, nr 5 (42). http://www.e-mentor.edu.pl/artykul/index/numer/42/id/888 (odczyt: 117.05.2017).
37.
Materska, Katarzyna (2011b). Metodologiczne problemy prowadzenia audytu informacji. PTINT Praktyka i Teoria Informacji Naukowej i Technicznej, nr 1-2 (73-74), s. 11-19. http://www.ptin.org.pl/pelne_teksty/2011_1-2.pdf (odczyt: 17.05.2017).
38.
Nowak, Stefan (1985). Metodologia badań społecznych. Warszawa: Państwowe Wydawnictwo Naukowe.
39.
Pickard, Alison Jane (2013). Research methods in information. 2nd edition. London: Facet Publishing.
40.
Pilch, Tadeusz; Bauman, Teresa (2001). Zasady badań pedagogicznych. Strategie ilościowe i jakościowe (wydanie drugie poprawione i rozszerzone). Warszawa: Wydawnictwo Akademickie „Żak”.
41.
Pindlowa, Wanda (1984). Kształcenie studentów jako użytkowników informacji naukowej: z pogranicza informatologii i pedagogiki. Kraków: Wydawnictwo UJ.
42.
Sapa, Remigiusz (2005). Benchmarking w doskonaleniu serwisów WWW bibliotek akademickich. Kraków: Wydawnictwo UJ.
43.
Sapa, Remigiusz (2013). Podejście holistyczne w nauce o informacji. W: Barbara Sosińska-Kalata, Ewa Chuchro red. Nauka o informacji w okresie zmian. Warszawa: Wydawnictwo SBP, s. 63-79.
44.
Sapa, Remigiusz (2016). Projektowanie badań indywidualnego zarządzania informacją z zastosowaniem techniki oprowadzania (guided tour). W: Sabina Cisek red. Inspiracje i innowacje: zarządzanie informacją w perspektywie bibliologii i informatologii. Kraków: Biblioteka Jagiellońska, s. 95-108. http://ruj.uj.edu.pl/xmlui/handle/item/31999 (odczyt: 11.05.2017).
45.
Saracevic, Tefko (1999). Information science. Journal of the American Society for Information Science, vol. 50, issue 12, pp. 1051-1063.
46.
Schimanek, Tomasz (2015). Diagnozowanie problemów społecznych. Warszawa: FISE. http://www.ekonomiaspoleczna.pl/x/1650631 (odczyt: 29.04.2017).
47.
Shenton, Andrew K. (2004). The analysis of qualitative data in LIS research projects: A possible approach. Education for Information, issue 22, p. 143-162.
48.
Sosińska-Kalata, Barbara (2007). Współczesne oblicze nauki o informacji w Polsce i za granicą. W: Elżbieta Gondek, Diana Pietruch-Reizes red. Studia z informacji naukowej i dyscyplin pokrewnych: prace dedykowane Profesor Barbarze Stefaniak. Katowice: Wydawnictwo UŚ, s. 93-119.
49.
Sosińska-Kalata, Barbara (2013). Obszary badań współczesnej informatologii (nauki o informacji). Zagadnienia Informacji Naukowej – Studia Informacyjne, nr 2, s. 9-41. http://bbc.uw.edu.pl/dlibra/doccontent?id=749&dirids=1 (odczyt: 07.04.2017).
50.
Sosińska-Kalata, Barbara (2015). Ewolucja koncepcji informatologii (nauki o informacji). W: Elżbieta Gondek red. Teoretyczne zagadnienia bibliologii i informatologii. Studia i szkice. Katowice: Wydawnictwo UŚ, s. 115-137.
51.
Stefaniak, Barbara; Skalska-Zlat, Marta; Cisek, Sabina (2016). Metody badań w nauce o informacji (informatologii). W: Wiesław Babik red. Nauka o informacji.
Warszawa: Wydawnictwo SBP, s. 89-122.
52.
Szatur-Jaworska, Barbara (2008). Diagnoza i diagnozowanie w polityce społecznej. http://www.szatur.republika.pl/Diagnoza_i_diagnozowanie_w_polityce_spolecznej.pdf (odczyt: 16.05.2017).
53.
Talja, Sanna; Tuominen, Kimmo; Savolainen, Reijo (2005). “Isms” in information science: constructivism, collectivism and constructionism. Journal of Documentation, vol. 61, issue 1, pp. 79-101.
54.
Tuomaala, Otto; Järvelin, Kalervo; Vakkari, Pertti (2014). Evolution of library and information science, 1965-2005: content analysis of journal articles. Journal
of the Association for Information Science and Technology, vol. 65, issue 7, pp. 1446–1462.
55.
Wilson, Tom D. (1982). Nowy paradygmat badań w dziedzinie informacji naukowej: badanie przez działanie. Zagadnienia Informacji Naukowej, nr 1 (40), s. 57-74.
56.
Wiorogórska, Zuzanna (2012). Teoria ugruntowana i jej wybrane zastosowania w badaniach z zakresu informacji naukowej i bibliotekoznawstwa. Przegląd Biblioteczny, R. 80, nr 1, s. 47-57.
57.
Woźniak, Jadwiga (1997). Kognitywizm w informacji. Zagadnienia Informacji
Naukowej, nr 2, s. 3-16.
58.
Zhao, Dangzhi; Strotmann, Andreas (2014). The knowledge base and research front of information science 2006-2010: an author cocitation and bibliographic coupling analysis. Journal of the Association for Information Science and Technology, vol. 65, issue 5, pp. 995-1006.
59.
Ziemski, Stefan (1973). Problemy dobrej diagnozy. Warszawa: WP.
60.
Zins, Chaim (2007). Knowledge map of information science. Journal of the American Society for Information Science and Technology, vol. 58, issue 4, pp. 526-535.
Barbara Sosińska-Kalata
Katedra Informatologii
Wydział Dziennikarstwa, Informacji i Bibliologii, Uniwersytet Warszawski
Diagnozowanie i optymalizacja systemów
organizacji wiedzy
Diagnosis and optimization of knowledge
organization systems
Słowa kluczowe: analiza, diagnoza, prakseologia, systemy organizacji wiedzy.
Keywords: analysis, diagnosis, knowledge organization systems, praxeology.
Abstrakt
Celem artykułu jest przedstawienie koncepcji diagnozowania sprawności systemów organizacji wiedzy (SOW), opartej na filozofii praktyczności (prakseologii). Podstawą tej koncepcji jest analiza własności SOW związanych z realizacją ich funkcji oraz sformułowanie postulatów optymalizacji ich wartości w odniesieniu do różnych środowisk informacyjnych i uwarunkowań implementacji i wykorzystywania SOW. W artykule przedstawiono założenia teoretyczne tej metody diagnozowania i optymalizacji systemów organizacji wiedzy.
Abstract
The aim of the article is to present the concept of diagnosing the efficiency of
knowledge organization systems (KOS) based on the philosophy of practicality (praxeology). The basis of this concept is the analysis of KOS properties related to the realization of their functions and the formulation of postulates for optimizing their values in relation to
different information environments and conditions of implementation and the use of KOS. In the article, the theoretical assumptions of this method of diagnosis and optimization of knowledge organization systems are presented.
Wprowadzenie
Dokładne poznanie specyfiki funkcjonowania systemów organizacji wiedzy (SOW) w praktyce informacyjnej wymaga wypracowania koncepcji metodologicznej badania ich sprawności, która umożliwiłaby wielowymiarową diagnozę, uwzględniającą szeroki i złożony kontekst praktycznego stosowania SOW w różnych środowiskach technicznych, społecznych i kulturowych. Sprawność rozumiana jest tu ogólnie i szeroko, jako skuteczność SOW w wypełnianiu ich funkcji, którą rozpatrywać powinno się w odniesieniu do każdej z tych funkcji we wszystkich istotnych aspektach ich realizacji oraz w odniesieniu do całokształtu funkcji SOW w kompleksowo rozpatrywanym środowisku ich wykorzystywania.
Wielowymiarowa analiza sprawności ludzkiego celowego działania i wykorzystywanych w nim narzędzi jest domeną prakseologii. Poszukiwanie metod i narzędzi sprawnej realizacji procesów informacyjnych składających się na działalność informacyjną stanowi podstawowy problem badawczy nauki o informacji, stąd też koncepcje prakseologiczne, słabiej bądź silniej uświadamiane, w przeszłości odgrywały istotną rolę w kształtowaniu epistemologii nauki o informacji. Maria Dembowska, podkreślając, iż informatologia jest nauką praktyczną, uznała prakseologię za podstawę metodologii jednego z najważniejszych jej nurtów (Dembowska, 1991, s. 23-26; Dembowska, 1999, s. 166). Dziś teorie prakseologiczne zdają się być nieco zapomniane przez polskich informatologów, a w międzynarodowej nauce o informacji są praktycznie w ogóle nieobecne. Poszukując ogólnej ramy metodologicznej dla diagnozowania i optymalizacji SOW, warto więc rozważyć możliwości wykorzystania metody analitycznej oferowanej przez prakseologię w organizacji wiedzy jako jednym z kluczowych obszarów nauki o informacji.
Podstawowe założenia prakseologii
W ogólnym znaczeniu prakseologia jest nauką o sprawnym działaniu. Nazywana jest też filozofią praktyczności, ogólną metodologią działania celowego lub „gramatyką czynu”. Przedmiotem jej dociekań są podstawowe reguły i normy rządzące praktycznym postępowaniem, niezależnie od tego, co jest jego obiektem i do jakiego rodzaju ludzkiej aktywności ono należy. Podstawowym celem prakseologii jest wypracowanie systemu pojęć niezbędnych lub przydatnych do konstrukcji zaleceń i przestróg dotyczących sprawności działań i unikania błędów. W samym więc założeniu podejście prakseologiczne ma charakter diagnostyczny, dostarczając metodę analizy, rozpoznania i oceny stanu rzeczy w określonym zakresie oraz wskazywania zmian, które umożliwią poprawę skuteczności określonych działań, technik lub narzędzi.
System pojęć prakseologicznych obejmuje dwie klasy ogólnych kategorii: pojęcia służące do analizy i opisu organizacji i techniki działania oraz pojęcia opisujące sposoby działania pod względem sprawności. Za pomocą tych kategorii prakseologia zmierza do ujęcia w system dedukcyjny twierdzeń o sprawnych działaniach, sposobach i narzędziach ich przeprowadzania zarówno w perspektywie najogólniejszej, w odniesieniu do działania w ogóle, jak i w perspektywie szczegółowej – w odniesieniu do różnych obszarów działań specjalistycznych.
Początki naukowej refleksji nad naturą działań zwykle wiąże się z filozofią praktyczną Arystotelesa, jednak korzenie współczesnej prakseologii, która poddaje działanie systematycznej i uporządkowanej analizie, wywodzi się przede wszystkim z dziewiętnastowiecznej francuskiej teorii działania, w szczególności z prac Louisa Bourdeau i Alfreda Victora Espinasa (por. Alexandre, Gasparski red., 2000). Bourdeau (1824-1900) rozumiał prakseologię jako ogólną naukę o funkcjach (2000, s. 27-28). Espinas (1844-1922) jako pierwszy powiązał prakseologię z badaniami celowego działania człowieka. Według niego była to ogólna nauka o tzw. sztukach użytecznych w sensie greckiego technai, którą nazywał „technologią ogólną” (technologie générale). W artykule Les origines de la technologie (1890) pisał, że umiejętności praktyczne są wynikiem doświadczenia i refleksji, z których człowiek wyprowadza reguły postępowania najlepiej dostosowanego do wykonywanego zadania i zamierzonego celu. Pod tym samym tytułem w 1897 r. Espinas wydał obszerny traktat, zawierający wykład założeń i programu badawczego prakseologii jako technologii ogólnej (2000, s. 46-47). Do tego traktatu bezpośrednio nawiązują założyciele dwóch szkół współczesnej prakseologii, które powstały w połowie XX wieku: Tadeusz Kotarbiński i Ludwig von Mises.
Tadeusz Kotarbiński (1886-1981), filozof i logik należący do Lwowsko-Warszawskiej Szkoły Filozofii, Logiki i Matematyki, stworzył system nazywany realizmem praktycznym lub filozofią praktyczności (Gasparski, 1993). Rdzeniem tej filozofii jest prakseologia rozumiana jako ogólna teoria czynu czy też ogólna metodologia sprawnego działania, która rozważa wszelkiego rodzaju działania z punktu widzenia skuteczności (Kotarbiński, 2003a). Podstawowe założenia tej teorii Kotarbiński przedstawił w Szkicach praktycznych wydanych w 1913 r., a jej całościowy wykład zawarł w Traktacie o dobrej robocie (1955).
Według Kotarbińskiego prakseologia lokuje się między ogólną teorią zdarzeń (procesów) i ekonomią, a jej celem jest porządkowanie świata działań praktycznych, świadomych i celowych. Fundamentem tego porządkowania jest poszukiwanie najszerszych uogólnień za pomocą analizy działalności praktycznej, opartej na wyodrębnieniu jej podstawowych elementów takich, jak cel, podmioty działające, tworzywo, produkty, warunki, metody, środki i narzędzia oraz sytuacja przymusowa. Prakseologiczne oceny działalności praktycznej to takie kategorie, jak skuteczność, sprawność, wydajność, oszczędność, dokładność i prostota. Kotarbiński wyróżnił trzy zadania prakseologii:
−
konstrukcja i uzasadnianie norm dotyczących sprawności działania, oparte na doświadczeniu i obserwacji, analizie sukcesów i porażek oraz dociekaniu ich przyczyn;
−
badanie dynamiki postępu ludzkich umiejętności – tj. opis ewolucji działań i dociekanie jej uwarunkowań;
−
analityczny opis elementów działania i jego form, który ma charakter służebny w stosunku do obu poprzednich zadań, dostarczając im aparatury pojęciowej, klasyfikacji działań i ich konceptualnych modeli (Kotarbiński, 1955, s. 16-22; Kotarbiński, 2003b).
Prakseologia w ujęciu Kotarbińskiego ma charakter metodologii proponującej sposób myślenia, który może być stosowany w różnych obszarach wiedzy do badania problemów skuteczności i efektywności specyficznych dla nich działań. W takim ujęciu rozwinęła się tzw. prakseologia szczegółowa w formie dyscyplin takich, jak prakseotechnika (prakseologiczna nauka o projektowaniu technicznym) czy prakseosemiotyka (prakseologiczna nauka o znakach i komunikowaniu) oraz w formie wyodrębnionych części dotyczących działania w takich naukach, jak cybernetyka, ekonomia, ergonomia, filozofia, matematyka, organizacja i zarządzanie, pedagogika, prawodawstwo, psychologia i socjologia.
W niniejszym artykule skupimy uwagę w szczególności na trzecim z zadań prakseologii wyróżnionych przez Kotarbińskiego, jako podstawie tworzenia koncepcji diagnozowania i optymalizacji systemów organizacji wiedzy. Sięgniemy również do prakseologii szczegółowej dotyczącej optymalizacji procesów i narzędzi komunikowania symbolicznego.
Prakseologia w ujęciu Ludwiga von Misesa (1881-1973), założyciela Austriackiej Szkoły Ekonomii, jest uniwersalną nauką o ludzkim działaniu, którą rozumiał on podobnie do prakseologii Kotarbińskiego. Podkreślał jednak, że nauka ta powinna być podstawą teoretyczną ekonomii i w tej dziedzinie rozwijał jej twierdzenia i aparat pojęciowy. W niniejszych rozważaniach interesują nas jednak prakseologiczne tezy Misesa o charakterze ogólnym. W wydanym w 1949 r. Human Action. A Treatise on Economics punktem wyjścia rozważań Misesa jest pogląd, iż podstawą każdego ludzkiego działania jest wybór dokonywany pod wpływem wielu różnych czynników i pomiędzy różnymi wartościami, które każdy człowiek ocenia na swojej własnej skali wartości, dążąc do przekształcenia sytuacji mniej komfortowej w bardziej komfortową. Wartość ta nie należy do istoty rzeczy lecz jest sposobem, w jaki człowiek reaguje na warunki swego otoczenia. Rozumienie ludzkich zachowań wymaga badania ich jako aktów wyboru uwarunkowanych celami i okolicznościami działania (Mises, 2007, s. 3-9). Każde ludzkie działanie jest świadomym przystosowywaniem się do stanu otoczenia fizycznego i społecznego, a w ujęciu najogólniejszym polega na stosowaniu określonych środków i narzędzi do osiągnięcia wybranego celu. W tym kontekście ocena sprawności tych środków i narzędzi jest pochodną oceny sprawności działania w odniesieniu do wybranych celów.
Dla rozważań przedstawionych w dalszej części niniejszego artykułu szczególnie interesujące są tezy Misesa dotyczące celów działania. Według niego celem działania jest wszystko to, do czego dąży człowiek, a środkiem jest wszystko to, co działający człowiek uważa za nie. Ostatecznym celem działania jest zawsze zaspokojenie jakiejś potrzeby, trzeba jednak brać pod uwagę fakt, że ludźmi zwykle kierują równocześnie różne potrzeby, a wybierane przez nich środki służą równoczesnemu osiągnięciu wielu celów (Mises, 2007, s. 80-81). To spostrzeżenie każe rozpatrywać sprawność działań i narzędzi w sposób kompleksowy, identyfikować i odnosić prowadzone analizy do wszystkich zamierzonych celów. Taki właśnie punkt widzenia przyjęty jest w koncepcji diagnozowania i optymalizacji systemów organizacji wiedzy, która zostanie przedstawiona w dalszej części artykułu.
Prakseologiczne aspekty organizacji wiedzy
Organizacja wiedzy zajmuje się badaniem i doskonaleniem metod realizacji procesów organizacji wiedzy oraz wykorzystywanych w nich narzędzi, czyli systemów metadanych określanych mianem systemów organizacji wiedzy. Na przykład, Richard Smiraglia, odpowiadajac na pytanie “What exactly is «knowledge organization»?”stwierdził, że “the core of our domain is the ordering of what is known, that that ordering might be accomplished in various ways but that concepts are critical lynchpins, and that a wide variety of scientific approaches fall within our embrace” (Smiraglia, 2005, s. 139).
Z kolei według Birgera Hjørlanda “Knowledge Organization (KO) is about activities such as document description, indexing and classification performed in libraries, bibliographical databases, archives and other kinds of «memory institutions»” (Hjørland, 2008, s. 86). W szerszym znaczeniu Hjørland uznał organizację wiedzy za obszar obejmujący analizy zarówno społecznej organizacji wiedzy, jak i odkrywanej w badaniach naukowych organizacji rzeczywistości (Hjørland, 2008, s. 86-87).
W organizacji wiedzy mamy zatem do czynienia z pewnym szczególnym rodzajem celowego działania ludzi, które polega na profesjonalnym i systematycznym realizowaniu dwóch kluczowych procesów: tworzenia reprezentacji zapisów wiedzy oraz ich porządkowania (organizowania), które ma umożliwić sprawny dostęp do tej wiedzy.
Systemy organizacji wiedzy są specjalistycznymi systemami metadanych, tj. systemami znaków służącymi do tworzenia reprezentacji zapisów wiedzy, na podstawie których przeprowadza się procesy wyszukiwania relewantnej informacji. Na fakt, że SOW są systemami znaków o celowo modelowanej strukturze semantycznej zwraca uwagę też Marcia Lei Zeng w jednej z najczęściej cytowanych w piśmiennictwie przedmiotu opisowej definicji SOW: “This systems model the underlying semantic structure of a domain and provide semantics, navigation, and translation through labels, definitions, typing, relationships, and properties for concepts” (Zeng, 2008, s. 160).
W niniejszym artykule przyjmujemy zatem, że organizacja wiedzy jest dziedziną badania działań ludzkich związanych z tworzeniem reprezentacji wiedzy oraz porządkowaniem kolekcji zapisów wiedzy lub zbiorów ich reprezentacji w sposób umożliwiający skuteczne ich przeszukiwanie. Istotą tych działań jest wspieranie komunikacji między organizatorami dostępu do zasobów wiedzy (generalnie traktowanymi jako twórcy ich reprezentacji)*1 i użytkownikami szukającymi ich określonych fragmentów. Działania takie należą do klasy procesów komunikacyjnych, rozumianych jako transmisja treści odnoszących się do pewnej rzeczywistości pomiędzy komunikującymi się podmiotami. SOW są narzędziami semiotycznymi służącymi do kodowania transmitowanych treści i ułatwiającymi ich transmisję. Przedstawiona w kolejnej części artykułu prakseologiczna metoda analityczna diagnozowania i optymalizacji SOW oparta została zatem na semiotycznej teorii prakseologicznej, czyli prakseosemiotyce zaproponowanej w końcu lat 60. XX w. przez Tadeusza Wójcika (Wójcik, 1969).
*1 Jest to pewne uproszczenie, ponieważ podmiot organizujący dostęp do pewnej kolekcji zapisów wiedzy może korzystać z reprezentacji tych zapisów opracowanych przez inne agendy, a więc nie musi być dosłownym twórcą tych reprezentacji. W niniejszych rozważaniach kwestia ta nie ma jednak istotnego znaczenia, albowiem interesuje nas tu sam akt nadawania komunikatów sformułowanych w SOW, czyli właśnie ich umieszczenia w zasobach pewnego systemu czy serwisu informacyjnego, z którym mamy do czynienia
w przypadku organizowania dostępu do pewnej kolekcji zapisów wiedzy.
Prakseologiczne postulaty optymalności systemów semiotycznych
Tadeusz Wójcik (1917-1975) rozwinął ogólne założenia prakseologii Kotarbińskiego w dziedzinie optymalizacji różnego rodzaju zapisów, m. in. notacji muzycznej i kartografii. W 1969 r. opublikował koncepcję normatywnej semiotyki – prakseosemiotyki (Wójcik, 1969), w której komunikat i kod, w którym jest on wyrażony traktuje się jako semiotyczne narzędzia procesów komunikacji i analizuje w kategoriach prakseologicznej teorii narzędzi. Zgodnie z podstawowym twierdzeniem tej teorii, człowiek tworzy narzędzia do realizowania określonych zadań przy minimalnym wydatku energetycznym (Wójcik, 1969, s. 11-12). Warunkiem niezbędnym minimalnej sprawności (operatywności) komunikatu jest postulat optymalności kodu. Podstawą optymalizacji każdego narzędzia jest jego dostosowanie do działania, w którym jest wykorzystywane, a w szczególności do przedmiotu działania i podmiotów działających.
Na zespół postulatów optymalności komunikatu składają się zatem trzy grupy zaleceń, z których pierwsza jest kluczowa dla optymalizacji narzędzi semiotycznych (Wójcik, 1969, s. 68-73):
1.
Postulaty optymalnego dostosowania do rzeczy komunikowanej:a)
jednoznaczność strukturalna lub sytuacyjna komunikatu,
b)
maksymalna wierność, czyli prawdziwość komunikatu,
c)
optymalna dokładność komunikatu ze względu na zadanie, dla którego powstał.
2.
Postulaty optymalnego dostosowania do odbiorcy komunikatu:a)
maksymalna dostępność komunikatu, w sensie możliwości korzystania z niego bez dodatkowego wysiłku,
b)
maksymalna postrzegalność formy komunikatu,
c)
maksymalna zrozumiałość komunikatu.
3.
Postulaty optymalnego dostosowania do twórcy komunikatu:a)
maksymalnie łatwa wyuczalność technologii tworzenia komunikatu,
b)
maksymalna łatwość tworzenia komunikatu (zarówno pod względem jego treści jak i formy).
Zestaw wyróżnionych przez Wójcika ośmiu postulatów optymalności komunikatu i równocześnie – postulatów optymalności systemu semiotycznego (kodu), w którym jest on wyrażony przedstawia rysunek nr 1.
Rysunek 1. Prakseosemiotyczne postulaty optymalności komunikatu
Źródło: Wójcik, Tadeusz (1969). Prakseosemiotyka. Zarys teorii optymalnego znaku. Warszawa: PWN, s. 69.
Pierwsza grupa postulatów dotyczy optymalizacji semantyki komunikatu i systemu semiotycznego. Ma ona zasadnicze znaczenie dla optymalizacji narzędzi semiotycznych, decydując o jakości transmitowanych treści: jednoznaczności, prawdziwości i dokładności sprzyjającej optymalnej ich percepcji.
Adekwatność semantyki kodu wobec komunikowanej rzeczy (rzeczywistości) powinna być rozpatrywana w kontekście celów komunikacji i potrzeb jej uczestników. Stąd dwie pozostałe grupy dyrektyw optymalności to postulaty dotyczące relacji między komunikatem i kodem a dwoma podmiotami (uczestnikami) procesu komunikacji: nadawcą i odbiorcą komunikatu. Podstawą optymalnego kreowania tej relacji jest łatwość użycia w procesach komunikacyjnych zarówno komunikatu, jak i kodu.
Na podstawie systemu prakseologicznych postulatów optymalizacji komunikatów i kodów Wójcika blisko dwadzieścia lat temu Jadwiga Woźniak (obecnie: Woźniak-Kasperek) wskazała cechy dobrego języka informacyjno-wyszukiwawczego w kontekście postępującej wówczas automatyzacji katalogów bibliotecznych (Woźniak, 1998). W niniejszym artykule użyjemy systemu postulatów prakseosemiotycznych Wójcika do wskazania warunków optymalności systemów organizacji wiedzy wykorzystywanych we współczesnym środowisku informacyjnym, którego dominującą częścią staje się środowisko cyfrowe.
Prakseologiczne warunki optymalności systemów organizacji wiedzy
Przedstawione w tej części artykułu postulaty optymalności systemów organizacji wiedzy po raz pierwszy przedstawione zostały w artykule L’efficacité des systèmes d’organisation des connaissances: un point de vue praxiologique (Sosińska-Kalata, 2012). Poniżej zaproponowana jest rozbudowa tej pierwotnej koncepcji, która w pełniejszy sposób uwzględnia różne uwarunkowania środowiska wykorzystywania SOW we współczesnej praktyce, a zwłaszcza rozwój technologii semantycznych.
Podstawowe prakseologiczne warunki optymalności SOW odnoszą się do ogólnie zdefiniowanych własności tych narzędzi, wpływających na wypełnianie ich dwóch głównych funkcji: reprezentowania wiedzy oraz ułatwiania dostępu do niej, które obejmuje różne działania wspierające proces poszukiwania tych porcji wiedzy, które są relewantne dla odbiorcy (użytkownika). Do działań tych należą: systematyczne przeglądanie, wyszukiwanie, a także wnioskowanie, służące przetwarzaniu treści reprezentacji dokumentów (obiektów informacyjnych) i kwerend w sposób umożliwiający precyzyjne wyodrębnienie z zasobów utrwalonej wiedzy jej fragmentów potrzebnych użytkownikowi.
Zgodnie z postulatami Wójcika, ogólnymi własnościami SOW, które są kluczowe dla ich optymalności są adekwatność wobec reprezentowanych treści oraz łatwość użycia przez twórcę i użytkownika komunikatów. Rozpatrując różne aspekty łatwości użycia narzędzi semiotycznych, trzeba brać pod uwagę zarówno możliwości człowieka jako podmiotu działającego, jak i instrumentów pośredniczących, wykorzystywanych w działaniach komunikacyjnych (Wójcik, 1969, s. 71). W przypadku współczesnych SOW tym pośredniczącym instrumentem jest w szczególności technologia komputerowa: programy i urządzenia komputerowe. Kwestią odrębną, której w tym artykule nie rozważamy, jest sprawność samych tych instrumentów. Rysunek nr 2 przedstawia rozwinięcie ogólnych postulatów optymalizacji narzędzi semiotycznych do postaci zestawu prakseologicznych postulatów optymalności SOW, który może stanowić uniwersalną ramę analityczną dla diagnozowania ich sprawności i możliwości ich efektywnego wykorzystania.
Rysunek 2. Postulaty optymalności systemów organizacji wiedzy
Źródło: oprac. własne.
Sprawność SOW w realizacji ich podstawowych funkcji wymaga, aby spełniały one dwa ogólne postulaty:
1.
Postulat strukturalnego izomorfizmu między zasobami utrwalonej wiedzy
i jej reprezentacją w SOW; zbiór elementów SOW (jednostek i relacji) musi zapewnić adekwatne odwzorowanie reprezentowanej wiedzy.
2.
Postulat funkcjonalnej użyteczności, tj. wystarczalności i konieczności struktury SOW do budowy reprezentacji, które a)
nie wymagają dodatkowego wysiłku w posługiwaniu się nimi, są łatwo postrzegalne i łatwo interpretowalne przez użytkowników i programy komputerowe korzystające z SOW w wyszukiwaniu informacji,
b)
są łatwo wyuczalne i umożliwiają łatwe tworzenie reprezentacji wiedzy, stanowiących następnie podstawę wyszukiwania.
Strukturalny izomorfizm między komunikowaną rzeczywistością a jej reprezentacją w SOW rozpatrywany powinien być ze względu na pięć własności SOW: (1) dokładność i zakres odwzorowania; (2) adekwatność odwzorowania struktury relacyjnej reprezentowanej wiedzy; (3) siła dyskryminacyjna; (4) jednoznaczność i (5) produktywność.
Dokładność i zakres odwzorowania w semantyce SOW treści składających się na reprezentowane zasoby wiedzy muszą być dostosowane do potrzeb informacyjnych i problemów wyszukiwawczych użytkowników. Reprezentacja wiedzy przedstawiana za pomocą SOW powinna być izomorficzna względem projekcji świata, którego dotyczą reprezentowane treści w percepcji użytkowników, dla których dany SOW jest przeznaczony.
Relacyjna struktura SOW musi być dostosowana do relacyjnej struktury reprezentowanej wiedzy. Oznacza to, że struktura relacji semantycznych między znakami (jednostkami leksykalnymi) SOW musi odwzorowywać relacyjną strukturę danej domeny wiedzy i jej systemu terminologicznego (por. Thellefsen, Thellefsen, 2004). Relacyjna struktura SOW powinna odwzorowywać zarówno istotne powiązania między elementami świata, którego dotyczy reprezentowana wiedza, jak i relacje paradygmatyczne systemu leksykalnego specjalistycznego języka danej domeny.
Optymalny SOW musi zapewniać właściwą siłę dyskryminacyjną, tj. zdolność do różnicowania treści (pojęć, tematów, obiektów odniesienia) dostosowaną do specyfiki (wielkości, zróżnicowania) reprezentowanych zasobów wiedzy. A zatem słownictwo i reguły składniowe SOW muszą zapewnić reprezentację elementów wiedzy na poziomie szczegółowości umożliwiającym ich jednoznaczną identyfikację.
Postulat jednoznacznej reprezentacji jest najważniejszym warunkiem semantycznym, szczególnie w przypadku SOW wykorzystywanych w automatycznym wyszukiwaniu, które zawsze oparte jest na pewnych technikach mechanicznego porównywania znaków (także w przypadku wyszukiwania semantycznego, bazującego na porównywaniu czytelnych maszynowo reprezentacji pojęć). Konieczność rozstrzygania przez odbiorcę niepewności interpretacji wyrażeń użytych przez nadawcę prowadzi do obniżenia sprawności komunikacji.
Optymalny SOW musi być produktywny, czyli musi zapewnić jednoznaczną i optymalnie dokładną reprezentację dla nowych treści, pojawiających się w rosnących zasobach zapisanej wiedzy i nowych problemów wyszukiwawczych użytkowników, których rozwiązaniu służyć ma poszukiwana wiedza.
Z kolei funkcjonalną użyteczność SOW, traktowanych jako narzędzia w sensie prakseologicznym, rozpatrywać należy w kontekście potrzeb i możliwości wykonawców procesów nadawania i odbierania treści wyrażonych w SOW. A zatem trzeba ją rozpatrywać w odniesieniu do podmiotu procesu nadawania komunikatu, tj. osoby, która tworzy lub programu komputerowego, który generuje reprezentację pewnego dokumentu lub obiektu informacyjnego, wyrażoną za pomocą danego SOW oraz w odniesieniu do podmiotu procesu odbierania komunikatu, tj. osób lub programów komputerowych, które odczytują treści wyrażone za pomocą danego SOW.
W odniesieniu do odbiorcy – użytkownika, który wykorzystuje SOW w procesach wyszukiwania informacji, koniecznym warunkiem optymalności SOW jest zapewnienie łatwej przyswajalności zasad używania go. Dodatkowy wysiłek wkładany w opanowanie SOW obniża jego operatywność. Zauważyć warto, że dla profesjonalisty informacji, np. zawodowego infobrokera, wyszukiwanie za pomocą SOW, którego wyuczył się on jako narzędzia swojej pracy, zwykle jest względnie łatwe nawet w przypadku systemów dość złożonych. W warunkach upowszechnienia technologii informacyjnych i migracji usług informacyjnych do Internetu, podmiotem wyszukującym informacje najczęściej jest jednak laik, który sprawnie operuje SOW tylko wówczas, gdy jest w stanie opanować go w sposób intuicyjny, przez odwołanie się do swojej dotychczasowej wiedzy i doświadczenia. W tym kontekście użyteczne może być zapewnianie SOW precyzyjnych słowników, zapewniających automatyczny (i niezawodny) przekład z języka naturalnego na SOW. Takie słowniki w formie czytelnej maszynowo mogą wspierać komunikację użytkownika z systemem informacyjnym. Są one też niezbędne w przypadku odbiorcy – programu komputerowego, który przeszukuje zasoby utrwalonej wiedzy reprezentowane za pomocą danego SOW. O łatwości przyswojenia zasad użycia w tym przypadku decyduje jednak przede wszystkim wykorzystywanie standardów kodowania informacji, np. zalecanych przez WWW Consortium w semantyzacji zasobów WWW.
Konsekwencją postulatu maksymalnej dostępności SOW dla użytkownika są postulaty stosowania formy zapisu wyrażeń łatwych do odczytania, zapamiętania i powtarzania oraz stosowania wyrażeń maksymalnie zrozumiałych, których interpretacja semantyczna nie wymaga dodatkowej wiedzy. Np. w przypadku użytkownika – człowieka, spotykana w SOW o słownictwie kontrolowanym modyfikacja pola semantycznego terminów indeksujących w stosunku do ich pierwotnego znaczenia w języku naturalnym może prowadzić do obniżenia sprawności tego typu SOW. Także w tym przypadku zapewnienie odbiorcom (zarówno ludziom jak i programom komputerowym) precyzyjnych słowników przekładowych może zwiększyć dostępność reprezentacji. W kontekście wykorzystywania SOW w środowisku cyfrowym z maksymalną dostępnością SOW wiąże się stopień ich formalizacji, ewentualnie podatności na formalizację SOW pierwotnie projektowanych do użycia w środowisku analogowym. Formalizacja jest warunkiem koniecznym, aby wyrażona w SOW reprezentacja była czytelna maszynowo i mogła być automatycznie przetwarzana w procesach przeglądania, wyszukiwania i wnioskowania automatycznego.
Postulaty dostosowania SOW do twórcy dotyczą dwóch aspektów używania ich do reprezentowania wiedzy: wyuczalności oraz łatwości tworzenia reprezentacji dokumentów i obiektów informacyjnych. Obie te dyrektywy wiążą się z zapewnieniem poprawności, spójności i jednolitości tworzonych reprezentacji dokumentów i obiektów informacyjnych. Wysoki poziom trudności SOW skutkuje większym prawdopodobieństwem popełniania błędów w praktyce (zwłaszcza w przypadku indeksowania intelektualnego, tj. przez ludzi). Złożone systemy zwykle zapewniają wysoką dokładność reprezentacji, jednak wymagają specjalnego kształcenia profesjonalistów informacji. Często też pozwalają różnie reprezentować te same treści, co z kolei wymaga opracowania i przestrzegania zasad ujednolicających ich pragmatykę. W przypadku tradycyjnych SOW indeksowanie i klasyfikowanie intelektualne w znacznym stopniu opierają się na intuicyjnej identyfikacji kluczowych pojęć, a powszechny brak precyzyjnie zdefiniowanych reguł pragmatycznych i niejednolita interpretacja złożonych reguł semantycznych i składniowych prowadzą do niespójnego odwzorowania wiedzy za pomocą systemów skomplikowanych strukturalnie. Ponieważ jednak złożona struktura zapewnia zwykle dużą siłę semantyczną SOW, a w konsekwencji również wysoką optymalność w zakresie izomorfizmu strukturalnego, optymalną wyuczalność i łatwość tworzenia reprezentacji powinno się osiągać nie przez upraszczanie leksyki i składni, ale stosując odpowiednie narzędzia pomocnicze. Np. problem spójności indeksowania można w sposób względnie prosty rozwiązać za pomocą kartotek wzorcowych. Mimo to w dotychczasowej praktyce zamiast rozwijania takich narzędzi częściej obserwuje się odchodzenie od strukturalnie złożonych SOW i zastępowanie ich SOW prostszymi i łatwiejszymi w obsłudze, ale równocześnie o niższej optymalności w zakresie izomorfizmu strukturalnego. Z kolei w przypadku indeksowania i klasyfikowania automatycznego wyuczalność SOW i łatwość generowania w nim reprezentacji obiektów informacyjnych zależy przede wszystkim od stopnia formalizacji SOW oraz stopnia standaryzacji jego czytelnego maszynowo zapisu. Nie odwołując się do konkretnych badań (o ile mi wiadomo, dotychczas ich nie prowadzono) można generalnie założyć, że generowanie i przetwarzanie reprezentacji sformułowanych w SOW o bardziej złożonej strukturze wymaga użycia algorytmów bardziej złożonych i kosztownych w opracowaniu, aniżeli generowanie i przetwarzanie reprezentacji sformułowanych w SOW o prostej strukturze (por. Bergman, 2007).
Postulaty funkcjonalnej użyteczności stanowią rozwinięcie warunków użyteczności narzędzi semiotycznych w sprawnym operowaniu nimi przez wykorzystujące je podmioty. Łatwo zauważyć, że o ile w przypadku postulatów semantycznych dążenie do ich maksymalnego spełnienia prowadzi do rosnącej złożoności struktury SOW, to w przypadku postulatów użyteczności nacisk położony jest na zachowanie poziomu złożoności SOW dostosowanego do możliwości (intelektualnych, technicznych) operujących nim podmiotów i instrumentów, co ma zapobiegać błędnemu użyciu. Bez wątpienia jednym z trudniejszych problemów jest znalezienie optymalnej równowagi między tymi dwoma przeciwstawnymi dążeniami.
Prakseologiczna analiza celów
W przedstawionej dotąd charakterystyce analizy i diagnozy SOW opartej na założeniach filozofii praktyczności cele tych narzędzi były traktowane ogólnie, zgodnie z ich dwiema głównymi funkcjami: reprezentowania utrwalonej wiedzy i ułatwiania dostępu do niej. Optymalność reprezentowania utrwalonej wiedzy zależy od stopnia strukturalnego izomorfizmu między reprezentacją i reprezentowaną wiedzą. Poza omówioną już zależnością między optymalnym poziomem strukturalnego izomorfizmu i stopniem złożoności SOW, pięć własności SOW, które determinują osiągnięcie optymalności w tym zakresie wiąże się też ze szczegółowymi funkcjami tych systemów, dotyczącymi zakresu kontroli jednostek leksykalnych i ich relacji semantycznych: wieloznaczności i synonimii jednostek, projekcji relacji hierarchicznych i asocjacyjnych, projekcji struktury semicznej jednostek, czyli ich szczegółowej treści (cech semantycznych identyfikujących ich znaczenie). Funkcje te trafnie zilustrowane zostały w dwuwymiarowej typologii SOW przedstawionej przez Zeng (2008).
Rysunek 3. Typologia SOW według typu struktury oraz typu kontrolowanych relacji semantycznych
TypySOWnowenowe.jpg
Źródło: oprac własne na podstawie Zeng, Marcia L. (2008). Knowledge Organization Systems (KOS). Knowledge Organization, vol. 35, no. 2/3, s. 161
Nieco zmodyfikowany schemat tej typologii przedstawiony jest na rysunku nr 3. Linearny układ SOW stosowanych w środowisku cyfrowym jest tu wyznaczony przez progresję siły semantycznej SOW (Daconta, Obrst, Smith, 2003), czy też ich precyzji ontologicznej (Guarino, 2006), zgodnie z konwencją szeroko przyjętą w piśmiennictwie dotyczącym technologii semantycznych i wykorzystywania SOW w środowisku sieci semantycznej (Semantic Web). Układ ten generalnie pokrywa się z rosnącą intensywnością kontroli jednostek leksykalnych SOW: systemy o najwyższej sile semantycznej, zapewniające największą precyzję ontologiczną (ontologie, sieci semantyczne, mapy tematów) realizują wszystkie funkcje związane z kontrolą jednostek i struktury semantycznej SOW.
Jak wcześniej wspomnieliśmy, ogólnie określona funkcja ułatwiania dostępu do zapisanej wiedzy obejmuje umożliwienie realizacji trzech rodzajów działań: wyszukiwania, przeglądania oraz automatycznego wnioskowania logicznego. Warunkiem koniecznym wyszukiwania jest zapewnienie identyfikacji zgodności między wskazanymi elementami reprezentacji dokumentu lub obiektu informacyjnego w kwerendzie i w reprezentacji dokumentu (obiektu) w przeszukiwanej kolekcji. Warunek ten na podstawowym poziomie ex definitione powinny spełniać wszystkie SOW, jednak kontrola wieloznaczności i synonimii w SOW zwiększa ich operatywność tym zakresie. Z kolei kontrola relacji hierarchicznych jest warunkiem koniecznym dla przeglądania reprezentacji wiedzy wyrażonej w SOW. Ten cel osiągnąć można zatem, wykorzystując SOW o strukturze nieco bardziej złożonej, w której zakodowane są powiązania hierarchiczne między ich jednostkami, a więc np. stosując taksonomie lub klasyfikacje. W praktyce zwykle w SOW wspierających przeglądanie (nawigację) poddaje się kontroli również wieloznaczność i synonimię jednostek SOW – brak takiej kontroli nie uniemożliwia realizacji tej funkcji, ale obniża jej efektywność. Dodać tu trzeba, że w praktyce bywa również, że implementując SOW wspierający przeglądanie (np. prostą taksonomię czy system kategoryzacyjny) rezygnuje się z wykorzystywania funkcji wyszukiwania (może być ona realizowana np. przez inny, równolegle stosowany SOW).
W środowisku Sieci Semantycznej kluczowym celem stosowania SOW jest automatyczne wnioskowanie logiczne, które również wymaga kontroli relacji semantycznych między jednostkami SOW, a wysoką efektywność osiąga wówczas, gdy kontroli podlegają zarówno zjawiska wieloznaczności i synonimii, różnego typu relacje semantyczne jak i szczegółowa interpretacja znaczenia reprezentowanego przez jednostki SOW. Stąd automatyczne wnioskowanie logiczne realizowane jest przy użyciu SOW o złożonej strukturze i wysokiej sile semantycznej, zapewniającej dużą szczegółowość reprezentacji wiedzy. Do tego typu SOW należą języki reprezentacji wiedzy wywodzące się ze sztucznej inteligencji, takie jak sieci semantyczne, mapy tematyczne, reprezentacje ramowe i ontologie.
Prakseologiczne podejście do diagnozowania i optymalizacji SOW zakłada, że ich optymalność analizowana powinna być w kontekście dostosowania SOW do reprezentowanej wiedzy i używających go podmiotów. Z kolei dostosowanie to musi być rozpatrywane w kontekście potrzeb i celów tych podmiotów. Nie jest to zagadnienie nowe w piśmiennictwie organizacji wiedzy. Od dawna podkreśla się konieczność zapewnienia zgodności między reprezentacją wiedzy w SOW i strukturą oraz interpretacją wiedzy w określonej domenie (zob. np. Beghtol, 1998; 2005; Hjørland, 2002). Analiza głównych celów, do których używane są SOW powinna być zatem uszczegółowiona odpowiednio do specyfiki badanego przypadku zarówno w kontekście ustalenia optymalnego poziomu siły semantycznej SOW, jak i w kontekście szczegółowych celów realizowanych przez nie w zakresie ułatwiania dostępu do określonej kolekcji zapisanej wiedzy. SOW są klasą różnorodnych narzędzi semiotycznych, a zakres i ziarnistość wyznaczanej przez nie struktury wiedzy dostosowywane są do potrzeb aktualnej sytuacji ich użycia w różnych domenach, środowisku kulturowym, społecznym i technologicznym. Np. jeśli celem SOW jest reprezentacja niewielkiej kolekcji zapisów wiedzy, optymalne ułatwienie dostępu do niej może być osiągnięte przy niedużej sile semantycznej SOW, bez zapewnienia obsługi funkcji automatycznego wnioskowania logicznego. Jeśli jednak organizuje się duże zasoby wiedzy, które mają służyć obsłudze specjalistów, pożądane jest zapewnienie zarówno wysokiej dokładności reprezentacji jak i automatyzacji wszystkich funkcji ułatwiających selekcję z tych zasobów treści relewantnych do zgłaszanych pytań.
Opartą na kryteriach prakseologicznych analizę i diagnozę SOW należy zatem przeprowadzać na różnych poziomach szczegółowości oceny sprawności realizowania przez nie celów, których osiągnięcie powinny zapewniać. Podstawą rozbudowy tej metody powinny być cechy SOW związane z tymi szczegółowymi celami. Można w tym celu wykorzystać np. typologię własności SOW opracowaną przez Renato Rocha Souzę, Douglasa Tudhope’a i Mauricio Barcellos Almeidę (Souza, Tudhope, Almeida, 2012). Typologię tę przedstawia rysunek nr 4.
Własności taksonomiczne SOW w typologii Souzy, Tudhope’a i Almeidy podzielone są na wewnętrzne (intrinsic) i zewnętrzne (extrinsic). Własności wewnętrzne są związane z typem SOW, traktowanym jako model niezależny od użytkowników czy środowiska zastosowań, natomiast własności zewnętrzne związane są ze środowiskiem, w którym SOW są stosowane.
Wewnętrzne własności SOW obejmują dwie grupy: własności niezbędne (essential) i własności akcydentalne (accidental). Własności niezbędne są cechami wzorcowymi, konstytuującymi dany typ (model) SOW. Odnoszą się one do dwóch obszarów charakterystyki SOW: strukturalnej i standaryzacyjnej. Charakterystyki strukturalne dotyczą jednostek i relacji prezentowanych w SOW. W odniesieniu do charakterystyki jednostek wyodrębniono ich typy (np. wyrazy, ciągi, liczby, pojęcia) oraz sposób porządkowania (np. losowe, alfabetyczne, semantyczne), natomiast w odniesieniu do relacji – specyfikację relacji prezentowanych w SOW. Są to więc te same charakterystyki, które poddaliśmy już analizie wcześniej w kontekście realizacji prakseologicznego postulatu izomorfizmu strukturalnego. Standaryzacja jako wewnętrzny wymiar charakterystyki SOW w omawianej typologii nie została poddana dokładniejszej specyfikacji. Autorzy typologii uznali ją jedynie za taką własność SOW, która wiąże się ze znormalizowaną w szerszej skali kontrolą zasad ich budowy, tak jak to się dzieje np. w przypadku budowy tezaurusów. Standaryzacja ma jednak wpływ także na funkcjonalną użyteczność SOW, zarówno w odniesieniu do nadawcy (łatwość sprawnego tworzenia reprezentacji, możliwość współpracy w tym zakresie), jak i w odniesieniu do odbiorcy (maksymalizacja dostępności, możliwość korzystania z SOW przez różne wyszukiwarki).
Wewnętrzne własności akcydentalne SOW obejmują cechy konkretnego SOW i mogą być różne dla każdej implementacji tego samego modelu SOW. Do cech tych należą własności dotyczące języka, domeny, mediów i sposobu prezentacji. Specyfikacja tych własności SOW pozwala pogłębić diagnozowanie tych narzędzi w odniesieniu do optymalnego ich dostosowania do uwarunkowań konkretnego zastosowania: specyfiki kolekcji (domena), językowej specyfiki jej użytkowania (jednojęzyczność i wielojęzyczność; czysty tekst, język znaczników, diagramy, język formalny; poziom kontroli słownictwa), specyfiki mediów wykorzystywanych w komunikacji (analogowe, cyfrowe) oraz specyfiki formy prezentacyjnej (tekstowa, wizualizacja graficzna).
Wyróżnione w typologii Souzy, Tudhope’a i Almeidy zewnętrzne własności SOW odnoszą się do: celu (np. kontrola terminologii, indeksowanie, klasyfikacja, reprezentacja wiedzy), który rozważany może być jako cel planowany lub cel, do realizacji którego dostosowuje się dany SOW; środowiska użytkowników (np. bibliotekarze, projektanci witryn WWW, tłumacze); zakresu poufności (np. tajny, jawny, dostępny publicznie); aktualizacji (np. bez zapewnionej aktualizacji, aktualizowany przez uprawniony podmiot, aktualizowany przez użytkownika).
Prakseologiczna analiza celów SOW powinna też uwzględniać przytoczoną wcześniej tezę prakseologii Ludwiga Misesa, iż ludzkie działania zwykle służą osiąganiu wielu celów. Obserwacja praktycznych zastosowań SOW dowodzi, że istotnie nie są one wykorzystywane tylko do realizacji głównych funkcji związanych z reprezentowaniem wiedzy i zapewnianiem dostępu do niej, ale również do realizacji celów dodatkowych, determinowanych np. przez czynniki społeczne. Np., dyskusyjne jest czy stosowanie systemów społecznego tagowania w katalogu biblioteki akademickiej podnosi dostępność jej zasobów, ale niewątpliwie ma ono wpływ na kształtowanie wizerunku samej biblioteki (Sosińska-Kalata, 2011). Z prakseologicznego punktu widzenia dostosowanie SOW do różnych wymagań aktualnego, także społecznego, środowiska ich użycia odgrywa istotną rolę w ocenie ich sprawności.
Rysunek 4. Własności SOW wyznaczające wymiary taksonomii SOW według R. Souzy, D. Tudhope’a i M.B. Almeidy
Źródło: Souza, Renato R.; Tudhope, Douglas; Almeida, Mauricio (2012). Towards a taxonomy of OS: dimensions for classifying knowledge organization systems. Knowledge Organization, vol. 39, no. 3, s. 189.
Podsumowanie
Prakseologia nie oferuje recept wystarczających do rozwiązania szczegółowych problemów praktycznych, jednak stopień szczegółowości analizy prakseologicznej SOW można znacznie pogłębić, biorąc pod uwagę ich szczegółowe własności i cele. Podejście prakseologiczne może więc służyć szczegółowej diagnostyce i wskazywaniu kierunków optymalizacji systemów organizacji wiedzy, dostarczając dobrze zdefiniowanych pojęć do opisu działań, w których są one wykorzystywane. Umożliwia całościowe i systematyczne analizowanie i diagnozowanie SOW, zapobiegając przeoczeniom ważnych aspektów poszczególnych funkcji oraz czynników wpływających na ich realizację. Na takim założeniu oparta jest przedstawiona w artykule koncepcja analitycznej metody badania SOW, której zadaniem jest przede wszystkim poszukiwanie warunków, od których zależy maksymalizacja sprawności działania tych narzędzi, które powinno być proste, ekonomiczne i korzystne praktycznie.
Bibliografia
1.
Alexandre, Victor, Gasparski Wojciech. W. eds. (2000). The roots of praxiology. French action theory from Bourdeau and Espinas to present days. New Brunswick, London: Transaction Publishers.
2.
Beghtol, Clare (1998). Knowledge domains: multidisciplinarity and bibliographic classification systems. Knowledge Organization, vol. 25, issue 1/2, pp.1-12.
3.
Beghtol, Clare (2005). Ethical decision-making for knowledge representation and organization systems for global use. Journal of the American Society for Information Science and Technology, vol. 56, issue 9, pp. 903–912.
4.
Bergman, Michael (2007). An intrepid guide to ontologies. AI3: adaptive information. Adaptive innovation. Adaptive infrastructure. http://www.mkbergman.com/374/an-intrepid-guide-to-ontologies/ (odczyt: 30.04.2017).
5.
Bourdeau, Louis (2000). Praxiology as the science of functions [excerpts]. Source: Théorie des sciences: Plan de science intégrale, vol. 2, book VII. Paris, Librarie Germer Bailliére, 1882. Transl. from the French G. Chevallier. In: Victor Alexandre, Wojciech W. Gasparski eds. (2000). The roots of praxiology. French action theory from Bourdeau and Espinas to present days. New Brunswick, London: Transaction Publishers, pp. 21-43.
6.
Daconta, Michael C.; Obrst, Leo J.; Smith, Kevin T. (2003). The semantic web.
A guide to the future of XML, web services, and knowledge management. Indianapolis: Wiley Publishing.
7.
Dembowska, Maria (1991). Nauka o informacji naukowej (informatologia). Organizacja i problematyka badań w Polsce. Warszawa: IINTE.
8.
Dembowska, Maria (1999). Informacja naukowa jako dyscyplina naukowa. W: Maria Dembowska. Bibliologia, bibliografia, bibliotekoznawstwo, informacja naukowa. Wybór prac. Warszawa: PAN, nakład autorki, s. 165-178.
9.
Espinas, Alfred V. (2000). The origins of technology [excerpts]. Source: Les origines de la technologie, Paris, Alcan, 1897. Transl. from the French by C. Schnoor. In: Victor Alexandre, Wojciech W. Gasparski eds. (2000). The roots of praxiology. French action theory from Bourdeau and Espinas to present days. New Brunswick, London: Transaction Publishers, pp. 45-91.
10.
Gasparski, Wojciech W. (1993). Philosophy of practicality: a treatise on the philosophy of Tadeusz Kotarbiński. Helsinki: Societas Philosophica Fennica.
11.
Guarino, Nicola (2006). Ontology and terminology: how can formal ontology help concept modeling and terminology? In: EAFT-Nord-Term Workshop on Terminology, Concept Modelling and Ontology, VFassa, February 10th, 2006. http://www.eaft-aet.net/fieldadmin/files/VAKKI/Nicola_guarino.pdf (odczyt: 30.04.2017).
12.
Hjørland, Birger (2002). Domain analysis in information science. Eleven approaches – traditional as well as innovative. Journal of Documentation, vol. 58, issue 4, pp. 422-462.
13.
Hjørland, Birger (2008). What is knowledge organization (KO)? Knowledge Organization, vol. 35, issue 2/3, pp. 86-101.
14.
Hjørland, Birger (2016). Knowledge organization (KO). Knowledge Organization, vol. 43, issue 6, pp. 475-484.
15.
Kotarbiński, Tadeusz (1955). Traktat o dobrej robocie. Łódź: ŁTN. Wrocław: Ossolineum.
16.
Kotarbiński, Tadeusz (2003a). O istocie i zadaniach metodologii ogólnej (prakseologii). W: Tadeusz Kotarbiński. Dzieła wszystkie, T. 2. Prakseologia. Wrocław, Warszawa, Kraków: Ossolineum, Wydawnictwo PAN, s. 52-65.
17.
Kotarbiński, Tadeusz (2003b). Rozwój prakseologii. W: Tadeusz Kotarbiński. Dzieła wszystkie, T. 2, Prakseologia. Wrocław, Warszawa, Kraków: Ossolineum, Wydawnictwo PAN, s. 112-125.
18.
Mises, Ludwig von (2007). Ludzkie działanie. Traktat o ekonomii. Warszawa: Instytut Ludwiga von Misesa.
19.
Smiraglia, Richard P. (2005). About knowledge organization: an editorial. Knowledge Organization, vol. 32, issue 4, pp. 139-140.
20.
Sosińska-Kalata, Barbara (2011). Nowe narzędzia organizacji wiedzy a jakość usług informacyjnych. W: Diana Piertruch-Reizes, Wiesław Babik, Renata Frączek red. Bezpieczna, innowacyjna i dostępna informacja. Perspektywy dla sektora usług informacyjnych w społeczeństwie wiedzy. Katowice: PTIN, s. 95-109.
21.
Sosińska-Kalata, Barbara (2012). L’efficacité des systémes d’organisation des connaissances: un point de vue praxiologique. Études de Communication, vol. 39, pp. 155-171.
22.
Souza, Renato R.; Tudhope, Douglas; Almeida, Mauricio (2012). Towards a taxonomy of KOS: dimensions for classifying knowledge organization systems. Knowledge Organization, vol. 39, issue 3, pp. 179-192.
23.
Thellefsen, Torkild L.; Thellefsen, Martin M. (2004). Pragmatic semiotics and knowledge organization. Knowledge Organization , vol. 31, issue 3, pp. 177-187.
24.
Wójcik, Tadeusz (1969). Prakseosemiotyka. Zarys teorii optymalnego znaku. Warszawa: PWN.
25.
Woźniak, Jadwiga (1998). Cechy dobrego języka informacyjno-wyszukiwawczego. Zagadnienia Informacji Naukowej, nr 2(72), s. 3-17.
26.
Zeng, Marcia L. (2008). Knowledge organization systems (KOS). Knowledge Organization, vol. 35, issue 2/3, pp. 160-182.
Monika Krakowska
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Diagnozowanie rozwiązań w zakresie zarządzania
informacją w organizacji z perspektywy teorii
information grounds i zachowań normatywnych
Diagnosing solutions within information
management in the organization from the perspective of the theory of “information grounds”
and normative information behaviour
Słowa kluczowe: model zachowań informacyjnych, normatywne zachowania informacyjne, środowiska informacyjne, zarządzanie informacją w organizacji
Keywords: information behaviour models, information grounds, information management in organisation, normative information behaviour
Abstrakt
Opracowanie stanowi przyczynek do podejmowania komplementarnych oraz interdyscyplinarnych badań zachowań informacyjnych z perspektywy teorii środowisk informacyjnych (information grounds). W rozważaniach teoretycznych skoncentrowano się na trychotomicznej koncepcji środowisk informacyjnych opartej na roli grupy użytkowników, miejsca oraz informacji. Celem jest ocena probierzy oraz możliwości zaimplementowania tego modelu do badań w zakresie zarządzania informacją w organizacji. Na podstawie krytycznej analizy literatury przedmiotu podjęto próbę scharakteryzowania i oceny modelu normatywnych zachowań informacyjnych w synergicznym środowisku informacyjnym w perspektywie jego wykorzystania w wielowymiarowym procesie diagnozowania zarządzania informacją w organizacji. Poszukiwano wiedzy i nowych rozwiązań oraz możliwości zaimplementowania modeli zachowań informacyjnych do oceny wybranych procesów i aspektów zarządzania informacją.
Abstract
The study is a contribution to undertaking complementary and interdisciplinary studies of information behaviour from the perspective of the information grounds theory. In
theoretical considerations, the focus was put on the trichotomy concept of information grounds based on the role of user groups, places and information. The objective is to evaluate the probes and the ability to implement this model for information management research in the organization. Based on a critical analysis of the subject literature, an
attempt was made to diagnose a model of normative information behaviour in
a synergistic information environment in the context of its relevance to organization
culture. Knowledge and new solutions as well as an ability to implement information behaviour models to evaluate selected processes and aspects of information management was sought.
Wstęp
Zarządzanie informacją w organizacji należy obecnie do najistotniejszych procesów funkcjonowania i rozwoju przedsiębiorstw, ich długofalowej obecności na rynku. Ofensywna globalizacja gospodarki, rozwój społeczeństwa informacyjnego, specjalizacja zawodowa, a także niepowstrzymany postęp technologiczny i wdrażanie coraz nowszych form i narzędzi komunikowania powoduje intensyfikację znaczenia wiedzy oraz informacji w prawidłowym budowaniu wartości przedsiębiorstwa. Zarówno wiedza, jak i informacja stają się atrybutami organizacji inteligentnej, którą cechuje umiejętność wykorzystywania informacji, optymalne jej pozyskiwanie, przetwarzanie i wykorzystywanie, a przez to zdolność osiągania wysokich wskaźników wzrostu ekonomicznego oraz dbałość o wysoką pozycję na rynku (Kromer, 2008, s. 94-95). Wytwarzana w różnorodnych procesach wiedza, którą wykorzystuje się do rozwijania struktur w organizacji, skutecznego współdziałania i komunikowania się, podnoszenia kwalifikacji pracowników, permanentnego uczenia się, kreowania innowacyjnych usług i produktów, ma według Ikujiro Nonaki i Hirotaki Takeuchi kluczowe i ważniejsze znaczenie niż samo gromadzenie informacji, przechowywanie jej lub wdrażanie nowych technologii informacyjnych. Co istotne, newralgiczny wymiar w koncepcji rozwoju strategicznego wartości organizacji posiada wiedza ukryta, niejawna (tacit knowledge), związana z interakcjami międzyludzkimi, procesami kognitywnymi oraz zachowaniami informacyjnymi (Nonaka, Takeuchi, 2000, s. 67).
Zarządzanie informacją w organizacji
Zarządzanie informacją w organizacji związane jest z różnorodnymi, systematycznymi i dynamicznymi procesami poszukiwania, zdobywania, selekcjonowania, oszacowania, organizowania, tworzenia, transferu i wykorzystywania informacji przez organizację oraz indywidualnych użytkowników. Aktywności odnoszące się do informacji i stanowiące o zachowaniach informacyjnych mogą być rozważane na wielorakich poziomach i z różnych perspektyw poprzez zastosowanie matrycy warunków (conditional matrix). Pozwala to na identyfikację czynników tworzących kontekst procesów informacyjnych w odniesieniu do indywidualnego, społecznego lub organizacyjnego wymiaru, a także dookreślić sytuację informacyjną, na którą mają wpływ okoliczności zdarzenia jak miejsce, motywacje, czas i cel działania (Świgoń, 2015, s. 390-391; Hildenbrand, 2007, s. 546).
Kultura organizacji
Wszelkie działania, aktywne i nieaktywne, intencjonalne oraz nieintencjonalne, związane z procesami i zachowaniami informacyjnymi, odnoszące się do tworzenia, dzielenia się, użytkowania, zastosowania informacji, zasadzone są na wytycznych, normach oraz wartościach i stanowią o kulturze organizacji. Określa się ją także jako rodzaj transformacji zasobów intelektualnych, gdzie społecznie współdzielone są wymierne standardy zachowań, wzorce postępowania, pryncypia definiujące znaczenie informacji oraz wielorakie procesy związane z zarządzaniem informacją w organizacji. Obejmują one powszechnie zaakceptowane reguły ustalające prawidłowe bądź oczekiwane zachowania informacyjne w organizacji oraz przekonania odnoszące się do roli społecznej w grupie pracowników i partycypacji w różnorodnych procesach informacyjnych wewnątrz organizacji. Stanowią one o kulturze informacyjnej organizacji, odzwierciedlonej w przyjętych normach kulturowych i społecznych wartościach, uwidocznioną w zachowaniach informacyjnych o charakterze normatywnym i praktykach związanych z zarządzaniem i użytkowaniem informacji (Choo, 2013, s. 776). Kultura informacyjna organizacji definiująca codzienne aktywności ludzkie w zakresie reagowania na informację (m.in. jej poszukiwanie, udostępnianie, pozyskiwanie, gromadzenie, ale też unikanie lub ignorowanie), może być określana jako orientacja informacyjna (information orientation) (Marchand, Kettinger, Rollins, 2002), klimat informacyjny (information climate) (Correia, Wilson, 2001) lub kultura dzielenia się informacją (information sharing culture) (Tötterman, Widén-Wulff, 2007). Środowisko to stanowi zbiór różnorodnych cech organizacji, sytuacji formujących motywacje pracowników, wpływających na efektywność działań podejmowanych w trakcie realizacji zadań oraz rozwiązywania problemów informacyjnych. Chun Wei Choo wyodrębnił dwa wymiary atrybutów normatywnych, do których zaliczył:
−
rolę wartości i norm informacji, określającą reguły aktywnego gromadzenia i wykorzystywania rzetelnej informacji do nadzorowania, kontrolowania działań, wspomagania wymiany informacji, współpracy, kreowania nowej wiedzy oraz
−
perspektywę zachowań informacyjnych w kontekście funkcjonowania w wewnętrznym i zewnętrznym otoczeniu organizacji.
Oba te wymiary wzajemnie się przenikają, zaś kultura informacyjna w organizacji może stanowić o procesach zarządzania informacją i orientacji informacyjnej w odniesieniu do rezultatów twórczych działań, reguł obowiązujących w organizacji, i opierać się na wzajemnych relacjach międzyludzkich oraz adaptacji ryzyka (Choo, 2013, s. 776-777).
Dynamiczne zachowania informacyjne w organizacji, jak i wszelkie działania mieszczące się w obszarze zarządzania informacją, kształtują się przede wszystkim w wyniku społecznego oddziaływania oraz dzięki uznawanych wartości w określonym środowisku, co pozwala na dostosowywanie się do nowych schematów zachowań i rozpoznawania ról społecznych. Kontekst, w którym zachodzą aktywności informacyjne, wpływa na przebieg realizacji zadań informacyjnych i podejmowanie przez użytkownika działania. Na zachowania informacyjne i zarządzanie procesami informacyjnymi w organizacji mają wpływ czynniki kulturowe i społeczne, które determinują tworzenie standardów jakości działania, zdobywanie odpowiednich kompetencji, w tym informacyjnych, regulują transfer informacji w zespołach i grupach osób. Organizację cechuje także wspólnota działania, gdzie użytkownicy podejmują się interakcji i procesów komunikowania się w tym samym czasie i miejscu, realizując te same lub podobne cele i zadania. Do uwarunkowań różnicujących zachowania informacyjne w organizacji należą także czynniki afektywne, kognitywne, psychologiczne, jak emocje, procesy poznawcze, cechy osobowości i typ intelektu (Krakowska, 2016, s. 430, 437).
Trychotomiczna koncepcja information grounds
W organizacji stanowiącej przestrzeń działania informacyjnego analizowane są różne schematy zachowań informacyjnych. Biorąc pod uwagę istotę wiedzy niejawnej w zarządzaniu informacją oraz budowanie kultury informacyjnej opartej na normach i wartościach społeczno-kulturowych, w artykule podjęto się próby analizy opracowanej przez Karen Fisher z zespołem (Fisher i in., 2005) koncepcji information grounds (środowiska informacyjne) w celu określenia jej przydatności do diagnozowania prcesów zarządzania informacją w organizacji. Starano się wyróżnić najważniejsze, synergiczne determinanty regulujące zachowania informacyjne w powstających spontanicznie lokalizacjach. Information grounds określone zostały w literaturze polskiej jako tymczasowe miejsca informacyjne (Krakowska, 2010, s. 202-211) oraz przestrzeń, podstawa lub płaszczyzna informacyjna (Kamińska-Czubała, 2013, s. 49). Analiza i badania problematyki information grounds i ich rozpoznawania oraz ewaluacja w różnych środowiskach użytkowników, zwłaszcza studia przypadków wśród studentów zarządzania informacją prowadzone przez Autorkę w latach 2014-2016, pozwoliły na dookreślenie i zaproponowanie terminu „środowisk informacyjnych” jako polskiego odpowiednika określenia information grounds. Fisher z współpracownikami definiują je jako tymczasową zbiorowość, otoczenie, gdzie ludzie spotykają się w jednorazowym, niepowtarzalnym celu i których zachowania w danej chwili wzmacniają powstanie społecznej atmosfery, sprzyjającej spontanicznemu i przypadkowemu dzieleniu się informacją (Fisher i in., 2005; Williams, Smith 2016, s. 286). Koncept środowisk informacyjnych wyrażony jest poprzez trychotomiczną relację atrybutów obejmujących ludzi, miejsce oraz informację. Dominanta ludzi odzwierciedla w modelu obszar badań nad kategorią i rodzajem grupy, partycypacją uczestników (membership size and type), relacjami i więziami (familiarity), rolami podmiotu (actor roles), typami społecznymi, typami osobowości (ang. social roles) oraz motywacjami. Parametr miejsca odnosi się do elementów środowisk informacyjnych, takich jak kluczowe aktywności podejmowane w określonej przestrzeni, lokalizacji (focal activities), przyjazna atmosfera (convivality), wygoda i komfort (creature comforts), usytuowanie oraz trwałość i niezmienność miejsca (location/permanence), kameralność oraz poziom hałasu. W kontekście informacji i procesów informacyjnych zachodzących w środowiskach informacyjnych najważniejsze są takie parametry i właściwości, jak: znaczenie, częstotliwość, tworzenie, dzielenie się oraz tematyka (Fisher, Landry, Naumer, 2007). Należy także zaznaczyć, że bardzo silne oddziaływanie na poszczególne atrybuty oraz obszary eksplikacji modelu środowisk informacyjnych mają czynniki afektywne, zwłaszcza emocje i motywacje. Warunkują one ocenę zdarzeń, miejsca i osób, określają ważność, nadając znaczenie relacyjne i stopień dopasowania się do kontekstu sytuacji i okoliczności informacyjnej, są także elementem podwyższonego, pozytywnego pobudzenia emocjonalnego. Dodatnia stymulacja poznawcza użytkowników, afirmatywny nastrój, korzystne afekty podwyższa ekspresywność działań i procesów kognitywnych oraz informacyjnych, wpływa na wzrost kreatywności, rozumienia relacji, hierarchizację zadań, zaangażowanie jednostki i jej zachowania informacyjne (Krakowska, 2010, s. 204-205).
W miejscu konstytuowania się information grounds poprzez nieformalne społeczne oddziaływanie użytkowników zmienia się zamysł podejmowanych procesów informacyjnych, co następuje w wyniku transformacji pierwotnego celu. Model ten jest wielokontekstowy, zbudowany na normach i zasadach kultywowanych przez różnorodne typy użytkowników, którzy w określonym czasie i w danym miejscu, przestrzeni społecznej, gromadzą się i podejmują się aktywnych procesów informacyjnych o cechach formalnych i nieformalnych. Podobnie jak model małych światów, zachowania w środowisku informacyjnym charakteryzują się perspektywą normatywną, co oznacza, że zasady i reguły społeczne istniejące w różnych grupach społecznych mieszają się, są akceptowane i stanowią motywację do reagowania na informację oraz bezpośredniej komunikacji.
Wpływ innych modeli zachowań informacyjnych na skonkretyzowanie koncepcji information grounds
Interdyscyplinarny model środowisk informacyjnych oparty jest na kilku teoriach. Pierwszą z kluczowych koncepcji, na których Fisher zasadziła swój koncept, było epistemologiczne podejście społecznego konstruktywizmu. Koncepcja ta zakłada, że człowiek postrzega i rozumie rzeczywistość subiektywnie, poprzez permanentną jej interpretację oraz interakcje z innymi użytkownikami (Tuominen, Savolainen, 1997, s. 81).
Społeczna rzeczywistość kreowana jest poprzez dialog, sieci konwersacji, zaś człowiek nadaje sens i wyjaśnia otaczający świat poprzez wspólnotowe porozumienie. Podobne podejście zasugerowała również Brenda Dervin, której metateoria sensemaking, poszukiwania logiczności i istoty rzeczywistości, była bodźcem do podjęcia się badań w obszarze information grounds (Fisher, Naumer, 2006). Konstytutywnym podejściem do ugruntowywania teorii środowisk informacyjnych była koncepcja Marka Granovettera siły słabych więzi (strenght of weak ties), która opiera się na supozycji, że słabe więzi pomiędzy ludźmi (gdzie silne charakteryzują rodzinę i przyjaciół), są najwartościowsze w procesie poszukiwania, pozyskiwania i przepływu informacji. Są one warunkiem integracji społecznej różnych grup użytkowników, przyczyniają się także do tworzenia rozbudowanych sieci społecznych. Sieci powiązań umożliwiają podjęcie się interakcji i wymianę informacji z osobami o podobnych przekonaniach. O jakości powiązania decydują takie determinanty jak: zależności pomiędzy użytkownikami, dobrowolność zaangażowania się w interakcje, odbierana lub rozpowszechniana informacja, ilość poświęconego czasu na procesy informacyjne, siła więzi emocjonalnych, bliskość, ale też zakres poruszanych zagadnień, zażyłość, zaufanie oraz wzajemna pomoc (Granovetter, 1973, s. 1361). Transfer informacji jest silniejszy przy słabych więziach w danym środowisku, które zapewniają dostęp do użytecznej wiedzy poprzez połączenia członków małych grup, także w zbiorowiskach zamkniętych, w tym w organizacjach.
Do relacji interpersonalnych osób podejmujących się specyficznych procesów dzielenia się i reagowania na informację w niewielkich, raczej zamkniętych wspólnymi normami i regułami społeczności, odniosła się Elfreda A. Chatman w zaproponowanej przez siebie teorii zachowań informacyjnych małych światów (small worlds). Koncepcja ta była jedną z zasadniczych idei wykorzystanych do zbudowania nowego podejścia badawczego i konstrukcji środowisk informacyjnych (Fisher, Naumer, 2006, s. 96). Rozliczne próby etnograficznych i informatologicznych badań prowadzonych w obszarze małych światów pozwoliły na podjęcie się stworzenia hipotetycznego podejścia społecznego, szczególnie w odniesieniu do zachowań informacyjnych w życiu codziennym, także obejmujących procesy poszukiwania oraz dzielenia się informacją w miejscu pracy. Teoria pozwala na diagnozowanie różnorodnych aktywności informacyjnych w zbiorowiskach, w których uczestnicy mają niewielki kontakt z osobami nienależącymi do społeczno-kulturowego środowiska małych światów, które tworzą wokół siebie, także w organizacji lub instytucji. Uczestników małych światów absorbuje użyteczna w ich pojmowaniu informacja, zaś procesy informacyjne, których się podejmują, mają cechy aktywności rutynowych. Małe światy jako środowiska społeczne znajdują się w danej przestrzeni geograficznej, w określonym kontekście, w których ludzie funkcjonują w życiu codziennym, pracują oraz łączą się poprzez wspólne zainteresowania, oczekiwania i zachowania informacyjne, jak i podobny status społeczno-ekonomiczny (Burnett, Jaeger, 2008). Poszczególne założenia wymienionych teorii zostały odwzorowane i pogłębione w serii różnorodnych badań prowadzonych indywidualnie lub w zespołach pod kierunkiem Fisher, co pozwoliło na wypracowanie nowego modelu zachowań informacyjnych information grounds o atrybutach normatywnych, uwzględniających wpływ kontekstu, miejsca, norm społeczno-kulturowych, cech osobowości oraz indywidualnych procesów kognitywno-afektywnych.
Determinanty oddziałujące na indywidualną i grupową interaktywność w środowisku informacyjnym
Koncepcja środowisk informacyjnych ugruntowywana przez Karen Fisher od lat 90. poprzez serię zróżnicowanych badań jakościowo-ilościowych została oparta na następujących konstatacjach:
1.
Środowiska informacyjne (information grounds) mogą pojawić się gdziekolwiek, w każdej czasowej społeczności, zasadzone na obecności różnych osób.
2.
Ludzie gromadzą się w środowiskach informacyjnych w instrumentalnym celu, który w trakcie interakcji staje się środkiem sprzyjającym podejmowaniu się procesów informacyjnych.
3.
W środowiskach informacyjnych uczestniczą przedstawiciele różnych rodzajów grup społecznych, od których oczekuje się różnych ról w przepływie informacji.
4.
Fundamentalną aktywnością w środowiskach informacyjnych są społeczne interakcje, przez co transfer informacji jest produktem ubocznym.
5.
Przedstawiciele środowisk informacyjnych angażują się w formalne i nieformalne procesy dzielenia się informacją, przez co transfer informacji odbywa się w wielu kierunkach.
6.
Uczestnicy środowisk informacyjnych wykorzystują pozyskaną informację w niekonwencjonalny sposób, czerpiąc korzyści w wymiarze fizycznym, afektywnym, kognitywnym oraz społecznym.
7.
Środowiska informacyjne charakteryzuje istnienie mniejszych podkontekstów (ang. sub-context), perspektyw kreowanych przez indywidualnych uczestników, ich optykę, subiektywne rozumienie rzeczywistości, zjawisk i obiektów. Podkonteksty tworzą także zmienne fizyczne, jak lokalizacja, architektura wnętrza, obiekty fizyczne. Zespół podkontekstów konstytuuje rozbudowane, szerokie tło do badań nad modelem zachowań informacyjnych (Fisher, Naumer, 2006, s. 98-99).
Ustalenia te stanowią podstawowe założenia, które skupiono wokół trzech kluczowych atrybutów teorii środowisk informacyjnych. Wśród wymienionych wcześniej równie ważnych probierzy, determinujących powstawanie schematów zachowań informacyjnych o cechach doraźnych, nieintencjonalnych, będących afektywnym aktywizatorem procesów zdobywania, wykorzystywania lub transferu informacji także w środowisku pracy, Karen Fisher wymienia indykatory przestrzenne (lokalizacja, miejsce) oraz społeczne (zbiorowość i zachowania informacyjne w grupie), normy oraz konsytuacyjność (okoliczności) (Fisher, Naumer, 2006, s. 98, 101).
Wskaźniki przestrzenne
Wskaźniki przestrzenne są istotnymi symptomami wyłaniania się modelu środowisk informacyjnych. Zgodnie z definicją information grounds tworzone są przez użytkowników w celu zrealizowania zadania i pojawiają się w określonym miejscu, czasoprzestrzeni, którego architektura, uwarunkowania oraz atmosfera niezwykle silnie wpływają i wspomagają spontaniczne i nieplanowane procesy dzielenia się informacją i jej poszukiwania. Wykorzystując w teorii powstawania środowisk informacyjnych założenia mieszczące się w badaniach geografii humanistycznej, zwłaszcza prowadzonych przez Edwarda Relpha (Relph, 2016, s. 20-34), Lucy Lippard (Lippard, 1999), a także Tima Creswella (Creswell, 2004), należy określić miejsce w kontekście lokalizacji, zaangażowania danej kultury społecznej w jego funkcjonowanie, dbałość o kultywowanie i nadawanie znaczenia, gdzie istotne są elementy historyczne (Fisher, Naumer, 2006, s. 94).
Wyjściową teorią dla znaczenia miejsca jest tzw. koncepcja trzeciego miejsca Raya Oldenburga, która określa przestrzeń jako neutralne miejsce, dostępne dla wszystkich użytkowników, które wywołuje afektywne, pozytywne bodźce emocjonalne, przyczyniając się tym samym do integrowania się jednostki z grupą, otoczeniem oraz do wzmacniania wzajemnych relacji (Oldenburg, 1999, s. 22-29, 37-42; Fisher, Naumer, 2006, s. 94). Pomimo że trzecie miejsca określane są jako przestrzenie przeznaczone dla społecznych współzależności poza domem i miejscem pracy, środowiska informacyjne były obserwowane w miejscach profesjonalnej aktywności, w organizacjach i instytucjach.
Przestrzeń, w której pracuje użytkownik lub grupa użytkowników, może mieć szczególne znaczenie i być miejscem społecznych relacji, posiadać atmosferę oraz architekturę wnętrza podnoszącą dobrostan emocjonalny, co wspomaga wszelkie procesy informacyjne charakterystyczne dla information grounds. Pracownicy organizacji, przedstawiciele różnych działów i filii dużych przedsiębiorstw i korporacji tworzą indywidualne małe światy, konstytuujące środowiska informacyjne, które tworzą zbiorowiska użytkowników mających mały kontakt z innymi osobami spoza najbliższego środowiska społecznego, są zaznajomieni ze sobą w określonym otoczeniu, czują się komfortowo i podejmują się aktywności poznawczo-informacyjnej w stosunku do informacji postrzeganej jako relewantna i użyteczna. Zachowania informacyjne oparte są na wzajemnych relacjach społecznych, korelują z faktorami emocjonalnymi. W dynamicznych information grounds, postrzeganych jako przyjemne, zachęcające, atrakcyjne i nieograniczające środowiska, realizowane są często rutynowe i charakterystyczne dla danej organizacji normatywne zachowania informacyjne w życiu codziennym (Chatman, 1991, s. 447, Fisher, Naumer, 2006, s. 101-102, Savolainen, 2009, s. 41, Worall, 2010, s. 9-11). Należy również zaznaczyć, że lokalizacja, miejsce nie minimalizuje możliwości powstania środowisk informacyjnych, zaś gwarantem ich pojawienia się są ludzie i możliwość komunikowania się bezpośredniego. Swoiste miejsce (ang. locales) może jedynie uskutecznić procesy informacyjne (Savolainen, 2009, s. 41).
Wskaźniki społeczne
Zmienne społeczne, takie jak normy, reguły oraz typy społeczne użytkowników i rodzaje osobowości uwidocznione zostały zarówno w modelu małych światów, jak i środowiskach informacyjnych. Stanowią fundamentalne komponenty normatywnych zachowań informacyjnych, na których zasadzono teorię information grounds. Charakter tych zmiennych uzależniony jest od czynników interpersonalnych, wiedzy, cech oraz umiejętności osób, które uczestniczą w tych specyficznych formacjach podejmując się procesów informacyjnych oraz bezpośredniej komunikacji pomiędzy uczestnikami w grupie. Środowiska informacyjne są konstruktami społecznymi, które opierają się na percepcji trzech składowych tego modelu (ludzi, miejsca oraz informacji) przez indywidualnych użytkowników. O zaangażowaniu użytkowników decyduje osobliwość zadania lub sytuacji informacyjnej, jak również indywidualne inklinacje do podejmowania się interakcji w grupie uczestników danego środowiska. Osobowość uczestników środowisk informacyjnych, określona poprzez indywidualne właściwości psychologiczne, nadające trwały charakter zachowaniom i postawom jednostki, warunkujące jej stosunek do otaczającej rzeczywistości oraz osadzone na sekwencji trzech mechanizmów motywacyjnych, poznawczych i samoregulujących, stanowi jeden z najistotniejszych determinantów aktywnego uczestniczenia w information grounds (Fisher i in., 2005; Savolainen, 2009, s. 43). Podobnie decydującą zmienną w przypadku zachowań informacyjnych w środowiskach informacyjnych, wpływającą na sposób transferu informacji, może być wielkość grupy, która zwykle jest mała lub średnia, zażyłość pomiędzy uczestnikami, a także otwartość i gotowość akceptacji i włączenia do procesów informacyjnych nowych członków. Cechą środowisk informacyjnych jest ich koherencja, jednolitość, a uczestnicy chętniej podejmują się aktywności informacyjnej, gdy łączą ich wspólne zainteresowania, zadania, sytuacja i okoliczności, w których się znajdują, jak i doświadczenie. Użytkownicy uczestniczą w środowiskach informacyjnych dobrowolnie, bez względu na rolę oraz hierarchię społeczną. Wspólne więzi, środowisko pracy, wspólnota działań, chęć wspomagania emocjonalnego mogą cechować grupę pracowników instytucji, organizacji, działu. Stanowią także przyczynek do sprofilowania środowisk informacyjnych w miejscu realizowania profesjonalnych zadań (Fisher, Landry, Naumer, 2007).
W odniesieniu do zachowań informacyjnych w organizacji, także w kontekście środowisk informacyjnych oraz pogłębiania relacji społecznych, rozbudzania afektywnych konsekwencji aktywnego uczestniczenia w synergicznej przestrzeni informacyjnej, istotny staje się transfer informacji i wiedzy jawnej i ukrytej. Tego rodzaju przepływ informacji wzbogacony poprzez społeczne relacje jest charakterystyczny również dla wspólnoty działań (communities of practice), stanowiącej grupę użytkowników połączonych wspólną wiedzą specjalistyczną, doświadczeniem oraz predylekcją i chęcią do wspólnych czynności. Wspólnota działania może stanowić wyjście do wygenerowania specyficznych zachowań informacyjnych i tworzenia środowisk informacyjnych w organizacji (Wenger, 2010, s. 7).
Normatywne zachowania informacyjne
Model środowisk informacyjnych eksploruje zachowania jednostki w grupie, dostosowywanie jej indywidualnych cech zarządzania informacją i podejmowanie się aktywnych procesów informacyjnych lub biernej reakcji na informację. Grupa to asocjacja społeczna, ogniwo społeczne, składające się jednostek posiadających określony status, role społeczne, będących w relacjach pomiędzy sobą, mających zestaw własnych wartości i norm. Takie zbiorowisko społeczne może zaistnieć w organizacji, a poprzez zbiór wartości i kulturę organizacyjną regulować zachowania informacyjne poszczególnych członków zespołu. Istnieją także tzw. grupy odniesienia, wśród których można wyróżnić grupy odniesienia porównawczego oraz normatywnego. W przypadku normatywnych grup odniesienia, których zachowania w ramach zarządzania informacją są zbliżone do procesów informacyjnych środowisk informacyjnych i małych światów, członkowie są silnie zmotywowani do utrzymywania lub zdobywania akceptacji i ustanawiania jednomyślnie aprobowanych norm i wzorców postępowania (Dawson, Chatman, 2001). Jednostka dąży do uczestniczenia w grupach normatywnych ze względu na atrakcyjność danego kolektywu oraz korzyści jakie może osiągnąć poprzez różnorodne procesy kognitywne i informacyjne uwzględniające narzucone jej wzorce i imperatywy.
Teoria normatywnych zachowań informacyjnych zasadzona została na czterech komponentach, takich jak:
−
normy społeczne, stanowiące sposób ewaluacji sytuacji i bodźców, umożliwiające rozróżnienie prawidłowych, słusznych oraz fałszywych, złych reguł postępowania,
−
światopogląd,
−
typy społeczne,
−
zachowania informacyjne.
Normy społeczne określają zatem kodeks zachowań różnego typu, kanon postępowania i podejmowania się procesów informacyjnych (Burnett, Besant, Chatman, 2001, s. 537). Światopogląd w normatywnych zachowaniach informacyjnych dotyczy zbiorowego postrzegania otaczającej rzeczywistości, jej składników uznawanych za ważne, istotne dla grupy oraz przeciętne, które nie mają znaczenia. Pojawia się tzw. zmysł kolektywny (collective sense), wspomagający reagowanie na bodźce i ich ocenę. W zarządzaniu informacją może przyczynić się do wspólnego rozumienia zadań i procesów w kulturze organizacyjnej, nadawania znaczenia i wartości przez grupę poszczególnym składnikom profesjonalnego środowiska, którego optyka może różnić się od postrzegania jej przez indywidualnych członków zbiorowości. Oznacza to, że jednostka uczy się postrzegania rzeczywistości, opierając się na percepcji grupy, przyjmuje kolektywne wyobrażenia, zasady i standardy reagowania na informację (Burnett, Besant, Chatman, 2001, s. 537; Savolainen, 2009, s. 40). Zachowania normatywne to aktywność społecznego środowiska postrzegana przez grupę jako najbardziej odpowiednia w wymiernym kontekście, w którym zachodzą procesy reagowania na informację.
Kontekst formowania środowisk informacyjnych
Wszystkie komponenty modelu oraz działania podejmowane w ramach środowisk informacyjnych istnieją i realizowane są w określonym kontekście. Kontekst jako zespół wielorakich uwarunkowań, okoliczności, sytuacji oraz współzależności oddziałujących na siebie wzajemnie, wpływający na całe uniwersum człowieka determinuje zachowania informacyjne oraz zarządzanie informacją. Jest konstruowany i modyfikowany poprzez działania oraz interakcje człowieka, zatem ewoluuje i kształtuje się stale (Savolainen, 2009, s. 38-39). Środowisko informacyjne określane jest jako nadrzędny kontekst (grand context), który budują podrzędne konteksty (podkontekst, sub-context), gdzie zachodzą formalne i nieformalne procesy informacyjne, użytkowania, przekazywania, dzielenia się, poszukiwania. Zatem warunki, w których zachodzą zachowania informacyjne w information grounds, są stymulantem różnorodnych procesów informacyjnych. Można je scharakteryzować poprzez kategorie fizycznego środowiska, aktywności pojawiających się w tej przestrzeni, miejsca do tworzenia wiedzy i zdobywania umiejętności oraz uwarunkowania pojawiające się lub doświadczenia nabywane podczas podejmowanych procesów informacyjnych. Konteksty podrzędne dotyczą środowisk fizycznych, jak biura, sale konferencyjne, centra zarządzające, ale też jadłodajnie, pokoje socjalne, laboratoria. Odnoszą się również do wiedzy i poglądów, jakie posiadają użytkownicy poszukujący informacji w danej sytuacji, w zastanych okolicznościach. W różnorodnych sytuacjach, uwarunkowaniach zachodzą różnorodne, naprzemienne relacje i działania odnoszące się do wielorakich procesów zarządzania informacją, poszukiwania i transferu w środowiskach informacyjnych pojawiających się wewnątrz organizacji, w wielu lokalizacjach (Williams, Smith, 2016, s. 286).
Zakończenie
Diagnozowanie zarządzania informacją obejmuje wszystkie procesy odnoszące się do aktywności informacyjnych podejmowanych w różnych kontekstach i na wielu poziomach i ma na celu zdefiniowanie sposobów i możliwości udoskonalenia lub eliminacji nieprawidłowości wybranego procesu zarządzania. Intencją tych działań rozpoznawczych powinno być oszacowanie mocnych i słabych stron organizacji, przyczyn błędnie podejmowanych decyzji i nieefektywności procesów informacyjnych, precyzyjne sformułowanie koniecznych zmian oraz zrozumienie potencjału ewaluacji w celu osiągnięcia skutecznego rozwoju systemu zarządzania informacją. W ujęciu holistycznym jedną z najważniejszych cech diagnozy organizacji i procesów zarządzania informacją jest jej transdyscyplinarność oraz wieloaspektowość, uwzględniająca między innymi perspektywę socjologiczną, psychologiczną oraz informatologiczną. Istotny staje się kontekst procesów zarządzania informacją, jak i uwzględnienie różnorodnych determinantów, w tym czynników społecznych, kulturowych, kognitywnych i emocjonalnych (Hirsh Hadorn i in., 2008, s. 5; Stocki, 2013, s. 28).
W artykule skupiono się na czynnikach charakterystycznych dla środowisk informacyjnych oraz na trychotomicznym ujęciu teorii zachowań informacyjnych w tych przestrzeniach, roli ludzi, miejsca i informacji. Zwrócono także uwagę na istotę wartości i norm, procesów oraz normatywnych zachowań podejmowanych przez jednostki, znaczenie ról w społeczności organizacyjnej, znaczenie przestrzeni (miejsca) i kreowanej w niej kultury organizacji. Wszystkie te elementy wpływają na skuteczność procesów organizacji informacji i wiedzy, należy je zatem uwzględnić w modelu diagnozowania zarządzania informacją w organizacji. Środowiska informacyjne mogą stanowić jeden z modeli zachowań informacyjnych, które pojawiają się w kontekście różnokierunkowych działań organizacji, odnosząc się do zarządzania informacją. Jako charakterystyczny wzorzec normatywnych procesów informacyjnych, które ograniczone standardami i regułami nie tylko samej organizacji, ale także grupy społecznej, która podejmuje się synergicznych aktywności informacyjnych w danej lokalizacji (miejsce pracy staje się istotnym elementem, nacechowanym afektywnymi bodźcami implementującymi codzienne zachowania informacyjne), środowiska informacyjne mogą stać się zasadniczym stymulantem poszukiwania i transferu informacji, partycypując w kreowaniu nowej wiedzy w organizacji. Sama zaś organizacja, dzięki uświadomieniu obecności i aktywnej roli information grounds może stać się organizmem uczestniczącym i nadzorującym cały proces zarządzania informacją, świadomego rozwijania kapitału intelektualnego i działań w zakresie zarządzania zasobami ludzkimi. Wskaźniki przestrzenne (atmosfera, miejsce i architektura, środowisko pracy), czynniki społeczne (relacje społeczne, normy, reguły, kreowane małe światy, więzi, role społeczne), determinanty emocjonalne (pozytywne bodźce afektywne wspomagające procesy informacyjne, dobrostan uczestników grupy, zaangażowanie, atrakcyjność miejsca i osób) wpływają na formalne i nieformalne procesy tworzenia i dzielenia się informacją, przez co powinny także stanowić nieodłączne kryteria oceny sprawności funkcjonowania systemu zarządzania informacją w organizacji. Holistyczne spojrzenie na diagnozowanie tego systemu uwzględnia włączenie do modelu ewaluacji i rozpoznawania rzeczywistego stanu zjawisk i obiektów, różnorodnych czynników odnoszących się do normatywnych zachowań informacyjnych podejmowanych także w środowisku pracy. Dynamiczne i synergiczne, nacechowane afektywnie i kognitywnie uczestniczenie w zespole pracowników tworzących kulturę organizacji, kreowanie kolektywnych wyobrażeń i standardów reagowania na informację (w tym jej poszukiwanie i transfer) ma wysoki stopień przydatności w procesie diagnozowania zarządzania informacją. Wielowymiarowość spojrzenia na różnorodne procesy realizowane w organizacji, analiza społeczno-kulturowych i psychologicznych determinantów, rozpoznanie przyczyn niskiej skuteczności procesów oraz formułowanie wniosków naprawczych w wyniku szeroko rozumianej oceny efektywności, wymaga włączenia do modelu postępowania diagnostycznego zarządzania informacją czynników odnoszących się do normatywnych zachowań podejmowanych w organizacji.
Wyjaśnienie podstaw funkcjonowania środowisk informacyjnych, zwłaszcza w miejscu pracy, w otoczeniu profesjonalnym, jak również podjęcie się interdyscyplinarnych, systematycznych i kompleksowych badań nad normatywnymi zachowaniami informacyjnymi, zrozumienie ich istoty w działaniach decyzyjnych, może wspomagać procesy kształtowania się kultury organizacji i wpływu różnorodnych czynników na procesy zarządzania informacją.
Bibliografia
1.
Burnett, Gary; Besant, Michele; Chatman, Elfreda (2001). Small worlds: normative behavior in virtual communities and feminist bookselling. Journal of the American Society for Information Science and Technology, vol. 52, no. 7, pp. 536–547.
2.
Burnett, Gary; Jaeger, Paul T. (2008). Small worlds, lifeworlds, and information: the ramifications of the information behaviour of social groups in public policy and the public sphere. Information Research, vol. 13, no. 2. http://InformationR.net/ir/13-2/paper346.html (odczyt: 20.04.2017).
3.
Chatman, Elfrieda A. (1991). Life in a small world: Applicability of gratification theory to information-seeking behavior. Journal of the American Society for Information Science, vol. 42, pp. 438–449.
4.
Choo, Chun Wei (2013). Information culture and organizational effectiveness. International Journal of Information Management, vol. 33, pp. 775– 779.
5.
Correia, Zita; Wilson, Tom D. (2001). Factors influencing environmental scanning in the organizational context. Information Research, vol. 7, no. 1. http://informationr.net/ir/7-1/paper121.html (odczyt: 20.04.2017).
6.
Creswell, Tim (2004). Places: a short introduction. Malden, MA: Blackwell.
7.
Dawson, E. Murell; Chatman, Elfreda A. (2001). Reference group theory with implications for information studies: a theoretical essay. Information Research, vol. 6, no. 3. http://InformationR.net/6-3/paper105.html (odczyt: 20.04.2017).
8.
Fisher, Karen E.; Landry, Carol F.; Naumer, Charles (2007). Social spaces, casual interactions, meaningful exchanges: ‘information ground’ characteristics based on the college student experience. Information Research, vol. 12, no. 2. http://InformationR.net/ir/12-1/paper291.html (odczyt: 20.04.2017).
9.
Fisher, Karen; Naumer, Charles M. (2006). Information grounds: theoretical basis and empirical findings on nformation flow in social settings. In: Amanda Spink, Charels Cole eds. New directions in human information behavior. Netherlands: Springer, pp. 93-111.
10.
Fisher, Karen; Naumer, Charles; Durrance, Joan; Stromski, Lynn; Christiansen, Torben (2005). Something old, something new: preliminary findings from an exploratory study about people’s information habits and information grounds. Information Research, vol. 10, no. 2. http://informationr.net/ir/10-2/paper223.html (odczyt: 20.04.2017).
11.
Granovetter, Mark S. (1973). The strength of weak ties. American Journal of Sociology, vol. 78, no.6, pp.1360-1380.
12.
Hildenbrand, Bruno (2007). Mediating structure and interaction in grounded theory. In: Antony Bryant & Kathy Charmaz eds. The SAGE Handbook of Grounded Theory. Los Angeles, London, New Dehli, Singapore: SAGE Publication, pp. 511-536.
13.
Hirsch Hadorn, Gertrude; Hoffmann-Riem, Holger; Biber-Klemmm, Susette; Grossenbacher-Mansuy, Walter; Joye, Dominique; Pohl, Christian; Wiesmann, Urs; Zemp, Elisabeth eds. (2008). Handbook of transdisciplinary research. Switzerland: Springer Science & Business Media.
14.
Kamińska-Czubała, Barbara (2013). Zachowania informacyjne w życiu codziennym. Warszawa: Wydawnictwo SBP.
15.
Krakowska, Monika (2010). Koncepcja tymczasowych miejsc informacyjnych („information grounds”) i rola emocji w badaniach zachowań informacyjnych użytkowników. W: Maria Kocójowa red. Biblioteki, informacja, książka: interdyscyplinarne badania i praktyka w 21 wieku (w dziesięciolecie śmierci prof. dra hab. Wiesława Bieńkowskiego). Kraków: INIB UJ. http://skryba.inib.uj.edu.pl/wydawnictwa/e07/n-krakowska.pdf (odczyt: 20.04.2017).
16.
Krakowska, Monika (2016). Zachowania informacyjne. W: Wiesław Babik red. Nauka o informacji. Warszawa: Wydawnictwo SBP, s. 429-456.
17.
Kromer, Bożena (2008). Wiedza jako podstawowy czynnik funkcjonowania organizacji inteligentnej. Zeszyty Naukowe Wydziału Nauk Ekonomicznych, nr 12, s. 93-99.
18.
Lippard, Lucy (1999). Lure of the local: senses of place in a multi-centered society. New York: New Press.
19.
Marchand, Donald A.; Kettinger, William J.; Rollins, John D. (2002). Information orientation: the link to business performance. New York: Oxford Unity Press.
20.
Nonaka, Ikujiro; Takeuchi, Hirotaka (2000). Kreowanie wiedzy w organizacji. Warszawa: Poltext.
21.
Oldenburg, Ray (1999). The great good place: cafés, coffee shops, bookstores, bars, hair salons, and other hangouts at the heart of a community. New York: Marlowe.
22.
Relph, Edward (2016). The paradox of place and the evolution of placelessness. In: Robert Freeston, Edgar Liu eds. Place and placelessness revisited. New York: Routledge Taylor & Francis Goup, pp. 20-34.
23.
Savolainen, Reijo (2009). Small world and information grounds as context of information seeking and sharing. Library and Information Science Research, vol. 31, pp. 38-45.
24.
Stocki, Ryszard (2013). Diagnoza organizacji od A do Z. Praktyczny podręcznik diagnozy dla konsultantów, trenerów i menedżerów. Warszawa: Wolters Kluwer.
25.
Świgoń, Marzena (2015). Dzielenie się wiedzą i informacją w różnych dziedzinach nauki na polskich uczelniach, Zagadnienia Naukoznawstwa, nr 4, s. 389-407.
26.
Tötterman, Anna-Karin; Widén-Wulff, Gunilla (2007). What a social capital perspective can bring into the understanding of information sharing in a university context. Proceedings of the Sixth International Conference on Conceptions of Library and Information Science, `Featuring the Future’. Information Research, vol. 12, no. 4. http://informationR.net/ir/12-4/colis/colis19.html (odczyt: 20.04.2017).
27.
Tuominen, Kimmo; Savolainen, Reijo (1997). A social constructionist approach to the study of information use as discursive action. In: Peter Vakkari; Reijo Savolainen; Brenda Dervin eds. Information seeking in context. Proceedings of an international conference on research in information needs, seeking and use in different contexts, 14-16 August 1996, Tampere, Finland. London: Taylor Graham, pp. 81-96.
28.
Wenger, Etienne (2010). Communities of practice and social learning systems. In: Chris Blackmore. Social Learning Systems and Communities of Practice. London: Springer, pp. 179-198. http://wenger-trayner.com/wp-content/uploads/2012/01/09-10-27-CoPs-and-systems-v2.01.pdf (odczyt: 20.04.2017).
29.
Williams, Rachel D.; Smith, Catherine Arnott (2016). Constructing the information ground of the campus disability center. Library and Information Science Research, vol. 38, pp. 285-291.
30.
Worall, Adam (2010). The impact and influence of information grounds on information behavior research. http://www.adamworrall.org/portfolio/courses/lis6205/worrall_6205_influence_paper_120610.pdf (odczyt: 20.04.2017).
Marzena Świgoń
Uniwersytet Warmińsko-Mazurski w Olsztynie
Dzielenie się informacją i wiedzą: uwagi
o diagnozowaniu i terminologii
Information and knowledge sharing: remarks
on diagnosis and terminology
Słowa kluczowe: dzielenie się informacją, dzielenie się wiedzą, przepływ wiedzy, wymiana informacji.
Keywords: information exchange, information sharing, knowledge flow, knowledge sharing.
Abstrakt
Celem podjętych rozważań teoretycznych było scharakteryzowanie procesu dzielenia się informacją i wiedzą pod kątem przyszłych badań empirycznych w zakresie diagnozowania tego rodzaju zachowań informacyjnych. Wykorzystano analizę światowej literatury dotyczącej dzielenia się informacją. Na wstępie zilustrowano różnorodną terminologię, definicje i pojęcia występujące w literaturze informatologicznej oraz z innych dyscyplin. Dalej opisano główne konteksty i rozmaite aspekty, które mogą być uwzględniane w diagnozowaniu zachowań związanych z dzieleniem się informacją i wiedzą. Nawiązano też do metod stosowanych w takich badaniach. Dzielenie się informacją i wiedzą jest zjawiskiem bardzo złożonym i stanowiącym obszar badawczy o bardzo szerokim zakresie.
Abstract
The aim of this paper was to describe the process of information and knowledge sharing regarding future analysis of this kind of information behaviour. An analysis of the interdisciplinary subject literature was conducted. The terminology, definitions and concepts were described. Contexts and various aspects for diagnosing such behaviour were pointed out as well as the methods and technics used in this scope. Information and knowledge sharing is a very complex phenomenon offering the broad area for empirical studies.
Terminy, pojęcia, definicje
Zagadnienie dzielenia się informacją i wiedzą (information and knowledge sharing) jest opisywane w literaturze naukowej pod różnymi pojęciami, takimi jak np. wymiana informacji (information exchange), przepływ informacji (information flow), komunikowanie się (communication), transfer wiedzy (knowledge transfer) oraz odrębnymi: dzielenie się informacją (information sharing) i dzielenie się wiedzą (knowledge sharing). Określenia dzielenia się, wymiany i przepływu, komunikowania i transferu używane są niekiedy jako synonimy, ale bywają też wyraźnie rozróżniane. Podobnie jest z pojęciami podstawowymi, czyli informacją i wiedzą, które są przedmiotem owego dzielenia się, wymiany i przepływu. W tym kontekście używane są, oprócz informacji i wiedzy, jeszcze inne terminy, m.in.: dane, treści, pomysły (data sharing, content sharing, ideas sharing).
Dzielenie się wiedzą i informacją jest zagadnieniem interdyscyplinarnym i multidyscyplinarnym. Wyszukanie frazy „information sharing” w bazie Web of Science (przeprowadzone w lutym 2017 r.) zaowocowało ogólną liczbą wyszukanych rekordów 13422, z czego najwięcej pochodziło z nauk technicznych (9910), dalej społecznych, do których klasyfikowana jest w tej bazie informatologia (6026) oraz humanistycznych (216). Podobne liczby otrzymano w odniesieniu do frazy „information flow” (odpowiednio 9912, 3759, 177) i „information exchange” (11688, 5516, 310). Takie proporcje (choć liczby były znacznie mniejsze) dotyczyły też frazy „information and knowledge management” (odpowiednio: 102, 57, 1).
Przytoczone dane są potwierdzeniem występowania w literaturze przedmiotu dwóch głównych perspektyw: społeczno-humanistycznej i technologicznej. Pierwsza koncentruje się na komunikacji interpersonalnej, kapitale ludzkim i społecznym, często występuje w informatologii, ekonomii, socjologii czy naukach o zarządzaniu. Druga, rozwijana w naukach technicznych, a także informatologii, jest związana z systemami, narzędziami i technologiami informacyjnymi umożliwiającymi przechowywanie i udostępnianie zasobów informacyjnych. Perspektywy te nie zawsze są rozdzielne, raczej uzupełniają się, tworząc razem pełny obraz analizowanego zjawiska.
Rozważania na temat dzielenia się informacją i wiedzą warto rozpocząć od przyjrzenia się przykładowym opisom wymienionych pojęć, występującym w literaturze przedmiotu z nauk społeczno-humanistycznych, w tym informatologii (wyróżnienia pochodzą od autorki; więcej opisów i definicji zob. Świgoń, 2015, s. 13-24):
−
dzielenie się wiedzą jest czymś innym niż komunikacja, ale jest z nią związane; różni się od rozpowszechniania informacji, ale także się z nim wiąże (Hendriks, 1999, s. 92); proces ten ma postać przepływu, transferu od nadawcy wiedzy do odbiorcy, przy czym nadawca musi być zdolny do zakomunikowania swojej wiedzy (słownie, pisemnie lub poprzez czynność), a odbiorca do zrozumienia i przyswojenia jej (w trakcie słuchania, czytania lub poprzez naśladowanie czynności);
−
dzielenie się wiedzą to rodzaj społecznych interakcji, które umożliwiają lepsze zrozumienie (…), jest drogą do wiedzy (Correa da Silva, Agusti-Cullell red., 2008, s. 24);
−
podczas aktów komunikacji interpersonalnej dochodzi do dzielenia się informacją o tym, co ktoś wie (Wilson, 2010);
−
dzielenie się wiedzą jest procesem, w którym jednostki wspólnie dopracowują myśli, idee i sugestie, wykorzystując przy tym własne doświadczenia (Chua, 2003, s. 118);
−
transfer wiedzy powiązany ze wspólnym rozwiązywaniem problemów wspiera uczenie się (Riege, 2007, s. 49);
−
dzielenie się wiedzą polega na rozpowszechnianiu istniejącej wiedzy wśród członków zespołu oraz na wzbogacaniu jej o nową wiedzę pochodzącą ze źródeł zewnętrznych, spoza danego zespołu (Rosen, Furst, Blackburn, 2007, s. 260);
−
dzielenie się wiedzą jest procesem, który zmierza do wykorzystania istniejącej wiedzy, a więc wymaga zidentyfikowania i uzyskania dostępu do odpowiedniej wiedzy, w celu szybszego, tańszego i lepszego rozwiązania danego problemu czy wykonania zadania (Christensen, 2007, s. 37);
−
wymiana wiedzy pomiędzy przynajmniej dwoma uczestnikami tego procesu charakteryzującego się przede wszystkim wzajemnością pozwalającą na zmienianie i nadawanie sensu wiedzy w nowym kontekście (Ramayah, Yeap, Ignatius, 2013).
Z informatologicznego punktu widzenia dzielenie się informacją i wiedzą jest procesem powiązanym z innymi etapami cyklu życia informacji i wiedzy, czyli poszukiwaniem, ocenianiem, selekcjonowaniem i wykorzystywaniem. Jest wręcz warunkiem powstawania nowej wiedzy, innowacji oraz rozwoju naukowo-technicznego. Uważane jest też za kluczowy etap zarządzania informacją i wiedzą (Jashapara, 2005).
Podkreśleniem roli informatologów w badaniach dzielenia się informacją jest umiejscowienie tej aktywności w modelach zachowań informacyjnych. Przywołany wcześniej Tom Wilson pisał w latach 80. XX wieku o wymianie informacji (information exchange) oraz transferze informacji (information transfer) w kontekście właśnie zachowań człowieka podejmowanych w związku z poszukiwaniem i wykorzystywaniem informacji (Wilson, 1999, 2000). Zachowania informacyjne (information behaviour) są dobrze rozpoznane na gruncie badań informatologicznych (Wilson, 1999, 2000, 2008; Meho, Tibbo, 2003; Fisher, Erdelez, McKechnie, 2005; Godbold, 2006; Case, 2007; Vakkari, 2008; Cisek, 2008, 2009; Fisher, Julien, 2009; Julien, Pecoskie, Reed, 2011; Kamińska-Czubała, 2013; Mierzecka-Szczepańska, 2013).
Zachowania informacyjne są nawet przedmiotem odrębnej międzynarodowej konferencji – ISIC: the information behaviour conference, organizowanej od 1996 roku (http://www.informationr.net/isic/index.html; w tym w Krakowie w 2018 roku). Teksty zamieszczone na stronie czasopisma powiązanego z konferencją – Information Research – są najlepszym obrazem dynamiki rozwoju informatologicznych badań nad tym zjawiskiem. W okresie przygotowywania tego tekstu, indeks przedmiotowy tego czasopisma pod hasłem information sharing zawierał 30 tekstów oraz 3 dodatkowe umieszczone pod powiązanym hasłem information exchange.
Inny z informatologów – Ola Pilerot, dokonując przeglądu literatury przedmiotu z innej bazy z tej dyscypliny (uwzględnił 35 tekstów), wyróżnił kilka podejść do dzielenia się informacją, koncentrujących się na różnych aspektach tego procesu, m.in. na przedmiocie, uczestnikach i miejscach, były to:
−
analiza sieci społecznych (social network analysis) – przepływ informacji,
aktorzy tego procesu i więzi społeczne;
−
wspólna płaszczyzna (common ground) – wspólne zainteresowania, przekonania, poglądy;
−
płaszczyzna informacji (information ground) – tymczasowe fizyczne środowisko informacyjne i związane z nim formalne oraz nieformalne okazje do dzielenia się informacją;
−
mały świat (small worlds) – wspólne zainteresowania, wartości i normy, wspólne tworzenie znaczeń;
−
kapitał społeczny (social capital) – motywacje, system zachęt i nagród;
−
teoria dla praktyki (practice theories) – wzajemne związki, ludzie, działania, warunki techniczne (Pilerot, 2012).
Przyjmując perspektywę społeczno-humanistyczną w badaniach użytkowników informacji i ich zachowań informacyjnych oraz biorąc pod uwagę powyższe opisy i ustalenia dotyczące dzielenia się informacją, można podsumować, że należą do nich wszelkie zachowania związane z przekazywaniem, wymianą i rozpowszechnianiem informacji i wiedzy w ich różnych formach i za pośrednictwem różnych kanałów komunikowania się.
Cele zachowań informacyjnych związanych z dzieleniem się informacją i wiedzą mogą być bardzo różne, począwszy od potrzeby poszerzenia własnych kompetencji, pomocy w podjęciu decyzji, rozwiązaniu problemu czy wykonaniu zadania, poprzez potrzebę wspólnego komentowania, analizowania i współodczuwania, a skończywszy na autoprezentacji i tworzeniu wizerunku. Warto uzupełnić, że dzielenie się wiedzą jest jedną z podstawowych etycznych powinności członków społeczeństwa informacyjnego wobec siebie (Batorowska, 2013, s. 101).
Aspekty i konteksty diagnozy zachowań związanych z dzieleniem się informacją i wiedzą
W szerokim ujęciu, dzielenie się informacją obejmuje zarówno komunikowanie się bezpośrednie (face to face), jak i za pośrednictwem technologii informacyjno-komunikacyjnych, np. stron www i platform internetowych, mediów społecznościowych (social media), blogów, społeczności wirtualnych (online communities) czy poczty elektronicznej. W zakres dzielenia się informacją wchodzą więc wszelkie formy publikowania treści, nie tylko sieciowe i elektroniczne, ale także tradycyjne, czyli drukowane, oraz reagowania na opublikowane treści, czyli komentowania, recenzowania, linkowania itd. W procesie dzielenia się informacją i wiedzą mamy więc do czynienia z codzienną aktywnością podejmowaną przez osoby i grupy osób w życiu prywatnym i zawodowym.
Zasadniczo w dzieleniu się informacją i wiedzą mogą uczestniczyć dwie lub więcej osób. Wilson (2010) wyróżnił trzy podstawowe kombinacje:
−
jedna osoba – druga osoba (1 – 1),
−
jedna osoba – wiele osób (1 – N),
−
wiele osób – wiele osób (N – N).
Można więc powiedzieć, że dzielenie się informacją i wiedzą odbywa się na różnych poziomach (wymiarach, płaszczyznach): indywidualnym, grupowym, organizacyjnym, społecznościowym czy społecznym. Każdy z nich stanowi szeroki obszar badań nie tylko na gruncie informatologicznym.
Zachowania informacyjne związane z dzieleniem się informacją i wiedzą mogą być diagnozowane, czyli badane i analizowane, nie tylko w konkretnej skali, ale przede wszystkim w konkretnym kontekście.
Dla przykładu można diagnozować je w odniesieniu do danego środowiska (np. akademickiego, naukowego) i grupy zawodowej (np. lekarzy, prawników, biznesmenów), konkretnej grupy użytkowników informacji (np. uczniów, studentów, pracowników firm i organizacji), a także różnych kanałów komunikowania (np. użytkowników konkretnych mediów społecznościowych, czytelników prasy, książek etc.). Jeszcze inaczej można wyodrębnić pewne formy zachowań związanych z dzieleniem się informacją i wiedzą w ramach danej organizacji, np.:
−
publikowanie – opisywanie pomysłów i doświadczeń, przesyłanie informacji,
−
komunikacja wewnętrzna w organizacji – formalne interakcje w zespołach i grupach,
−
osobiste kontakty – nieformalne interakcje,
−
społeczności praktyków – grupy wirtualne, fora dziedzinowe (Ramayah, Yeap, Ignatius, 2013).
Nawiązując do różnych terminów pokrewnych do dzielenia się, wymienionych na początku tego artykułu, warto dodać, że niektórzy autorzy wprowadzają rozróżnienia typu: zachowania związane z dzieleniem się wiedzą, które dotyczą tylko dostarczycieli informacji i wiedzy, czyli nadawców i twórców, oraz zachowania związane z przepływem lub transferem wiedzy, które z kolei dotyczą obu zaangażowanych stron, a także pośredników w przekazywaniu informacji (Yi, 2009). Takie rozróżnienie nie spotkało się z szerszym przyjęciem.
Dzielenie się wiedzą jest procesem dwustronnym i dwukierunkowym, choć uwaga i koncentracja podmiotów na tym procesie nie musi zachodzić jednocześnie, a czasami wręcz zgodnie z oczekiwaniami zachodzi z opóźnieniem (komentarze, recenzje). Ponadto w pewnych sytuacjach może sprawiać wrażenie procesu jednostronnego czy jednokierunkowego. Nie zawsze bowiem obie strony, czyli nadawca i odbiorca, są jednakowo zaangażowane lub uczestniczą w tym procesie w taki sam sposób, np. werbalny czy pisemny. Niekiedy mamy do czynienia ze sprzężeniem zwrotnym wyrażonym w kontaktach bezpośrednich: gestem, mimiką twarzy, brawami, a w świecie technologii informacyjnych – symbolem, np. emotikonem, polubieniem postu itp. Ponadto na złożony akt komunikacji interpersonalnej składają się słowa, myśli, gesty i fizyczne reakcje ciała. Wyróżnia się trzy rodzaje symboli w bezpośrednim komunikowaniu międzyludzkim (Jones, 2009): protosymbole (nieświadome reakcja ciała na bodziec), symbole znaczące (świadome, słowne, głosowe) i skomplikowane (wykorzystujące abstrakcję). Współczesne narzędzia i technologie komunikacyjne w dużym stopniu umożliwiają stosowanie owych symboli, okazywanie aprobaty lub dezaprobaty oraz wzajemności.
Podstawowe rozróżnienia w diagnostyce dzielenia się wiedzą mogą dotyczyć celów podejmowania tej aktywności, wspomnianych w pierwszej części tekstu, takich jak np.: poszerzenie własnej wiedzy, pomoc innym w podjęciu decyzji, kreowanie wizerunku itd. Mogą odnosić się do kanałów i form komunikacji, np. bezpośredniej (face to face) i pośredniej (online) oraz kontekstu życia zawodowego i codziennego, analogicznie do badań zachowań informacyjnych w życiu codziennym (everyday life seeking information). W czasie aktów komunikacji międzyludzkiej, a więc na bazie interakcji społecznych, dochodzi nie tylko do przekazywania wiedzy, ale przede wszystkim do jej tworzenia. A ponieważ ludzie odgrywają różne role w życiu, są np. pracownikami, członkami społeczności i rodzin – proces dzielenia się informacją zależny jest od kontekstu, w jakim zachodzi.
W interdyscyplinarnej literaturze przedmiotu, której przeglądu autorka dokonała w innej pracy (Świgoń, 2015, s. 25-73) można spotkać rozróżnienie pomiędzy tzw. wymuszonymi aktami dzielenia się wiedzą a aktami podejmowanymi z wolnej woli (solicited vs. voluntary) (Teng, Song, 2011). Inne rozróżnienie dotyczyło odrębnych zdaniem autorów (Ford, Staples, 2010) procesów dzielenia się wiedzą całkowitą na dany temat a wiedzą cząstkową lub częściową (full knowledge vs. partial knowledge). Podobna do tej propozycja dotyczyła rozdzielenia badań nad dzieleniem się wiedzą w środowisku naukowym na poszczególne etapy procesu twórczego (Ismail i in., 2013), ponieważ implikują one albo pełne, albo częściowe dzielenie się wiedzą. Z kolei w naukach o organizacji i zarządzaniu bada się dzielenie się wiedzą powstającą wewnątrz organizacji oraz poza organizacją (Block, 2010). W różnych środowiskach podejmuje się próby badań wiedzy jawnej i ukrytej (explicit vs. tacit) (por. Reychav, Weisberg, 2010; Ismail i in., 2013), jak też informacji i wiedzy przekazywanych kanałami formalnymi oraz w nieformalnych kontaktach zawodowych (Świgoń, 2015, s. 75-193).
W diagnozowaniu dzielenia się informacją i wiedzą należy brać pod uwagę także różne czynniki wpływające na ten bardzo złożony proces. Informatolodzy klasyfikują je na różne sposoby. Wymienia się np. (Johansen, Gillard, 2005):
−
słowa – interpretacja (konotacja, eufemizmy), związek z percepcją rzeczywistości (abstrakcja, ewaluacja), odzwierciedlenie osobowości (postawy, opinie, emocje i doświadczenia);
−
środowisko – czas i miejsce, wielkość i struktura grupy, wzajemne relacje;
−
osoby – typ osobowości i usposobienie, kultura osobista, wygląd zewnętrzny, płeć.
Autorka niniejszego artykułu wyróżniła inne grupy czynników wpływających na dzielenie się informacją i wiedzą (por. Świgoń, 2015, s. 23):
−
czynniki indywidualne – związane z osobami będącymi źródłami i odbiorcami informacji i wiedzy, ale także pośrednikami w ich przekazywaniu, z ich indywidualną charakterystyką, zainteresowaniami, predyspozycjami, motywacją do dzielenia się wiedzą, relacjami z innymi osobami, preferencjami dotyczącymi wyboru kanałów komunikowania się oraz zasobami czasu i wysiłku, przeznaczanymi na tę aktywność;
−
czynniki środowiskowe i organizacyjne – związane z bliższym i dalszym otoczeniem osób, grup i organizacji, na które składają się m.in. sieci kontaktów, wartości normy, przepisy prawne;
−
czynniki technologiczne – związane z rodzajem i specyfiką wykorzystywanych do komunikacji technologii (platformy internetowe, social media, blogi i fora itd.), a także z ich niezawodnością i wsparciem technicznym.
Powyższe czynniki mogą oddziaływać na proces dzielenia się informacją i wiedzą wspierająco, jak bodźce, zachęty i motywatory, albo hamująco, jak ograniczenia i bariery. Dotyczy to wszystkich skal i poziomów dzielenia się informacją i wiedzą, kanałów komunikacji interpersonalnej oraz rodzajów przekazywanej informacji i wiedzy. Wyróżnione grupy czynników są propozycją ogólnej typologii nadającej się do zastosowania w badaniach empirycznych w różnych środowiskach zawodowych. W zaproponowanych grupach można wyodrębniać czynniki bardziej szczegółowe, charakterystyczne dla badanych osób, społeczności czy kanałów komunikowania.
Podsumowaniem dotychczasowych rozważań jest schemat przedstawiający aspekty i konteksty dzielenia się informacją i wiedzą (rys. 1). Jest to swoista mapa potencjalnych tematów i ujęć w przyszłych badaniach tego zjawiska.
Rysunek 1. Aspekty i konteksty diagnostyki dzielenia się informacją i wiedzą
Źródło: schemat jest zmodyfikowaną wersją przedstawioną w: Świgoń, Marzena (2015). Dzielenie się wiedzą i informacją. Olsztyn: Wydawnictwo UWM, s. 23
Na podstawie analizy literatury dotyczącej dzielenia się informacją i wiedzą, a w szczególności badań empirycznych podejmowanych na świecie w różnych środowiskach, można powiedzieć, że stosowane są w nich te same metody i techniki jak w innych badaniach dotyczących zachowań informacyjnych (Świgoń, 2015, s. 25-73). Są to metody zaczerpnięte z nauk społecznych, ilościowe i jakościowe, opisywane wielokrotnie w polskiej literaturze informatologicznej (Cisek, 2008, 2009; Sapa, 2009). Dobrze sprawdzają się wywiady indywidualne, pogłębione i focusowe (zogniskowane); prowadzą do wartościowych analiz jakościowych.
Niekiedy opracowywane są skale do pomiaru różnych aspektów tego zjawiska, które składają się z konkretnych stwierdzeń i przypisanej im punktowej skali zgody lub niezgody, przeważnie pięcio- (tzw. skala Lickerta) lub siedmiopunktowej. Takie narzędzia wzbogacają analizy jakościowe danymi liczbowymi, które przedstawione na wykresach i diagramach dobrze ilustrują mierzone elementy, np. częstotliwość udostępniania informacji, wielkość sieci kontaktów (por. Świgoń, 2015).
Ponadto w dobie informacji elektronicznej i cyfrowej owocne może być stosowanie obserwacji aktów dzielenia się informacją w sieci. Większość platform i mediów społecznościowych jest wyposażona w rozmaite wskaźniki, zwane altmetrics, pozwalające na wyciąganie niekiedy daleko idących wniosków (liczba polubieni; liczba aktów przekazania informacji dalej, czyli podzielenia się informacją; liczba ściągnięć itp.). Obserwacje takie można prowadzić zarówno w odniesieniu do informacji wykorzystywanej w życiu codziennym (portale typu Facebook, Instagram, Snapchat, Youtube), jak też w kontekście informacji i wiedzy naukowej (portale typu ResearchGate, Academia.edu, Mendeley).
Oczywiście wybór metod i technik powinien być dostosowany do wybranych do badań aspektów i kontekstu dzielenia się informacją i wiedzą. Wydaje się jednak, że najwartościowsze wyniki można by otrzymać po zastosowaniu tzw. triangulacji danych (Denzin, 1989), czyli czasu (zbieranie danych w różnych odstępach czasu), miejsca (instytucje, kraje) oraz osób (jednostki, grupy i zbiorowości). Innymi słowy, w triangulacji chodzi o zastosowanie zróżnicowanych technik zbierania danych i łączenie metod. Takim przykładem aktualnie prowadzonych badań jest analiza dzielenia się informacją i wiedzą przez młodych pracowników nauki prowadzona przez międzynarodowy zespół (do którego należy autorka) w ramach projektu Harbingers (http://ciber-research.eu/harbingers.html). Wnioski płynące z indywidualnych wywiadów są wzbogacone obserwacjami dzielenia się wiedzą w ramach konkretnych serwisów (np. ResearchGate, Open Access Journals). Badania prowadzone są cyklicznie (w rocznych odstępach) i w kilku krajach.
Podsumowanie
W niniejszym artykule scharakteryzowano terminologię i pojęcia związane z dzieleniem się informacją i wiedzą stosowane w literaturze informatologicznej oraz z innych dyscyplin. Zwrócono uwagę na różne aspekty i konteksty, które mogą być uwzględniane w diagnozowaniu zachowań związanych z dzieleniem się informacją i wiedzą. Są to skale i poziomy zjawiska, różne rodzaje kanałów komunikowania się, różne rodzaje informacji i wiedzy, rozmaite grupy czynników wpływających wspierająco lub hamująco na proces dzielenia się wiedzą, a także odmienne zbiorowości, środowiska i społeczności zaangażowane w wymianę informacji oraz same cele przyświecające podejmowaniu tej aktywności. Wspomniano też o stosowanych w takich badaniach metodach i technikach, z podkreśleniem roli triangulacji.
Na zakończenie trzeba podkreślić, że wskazany w artykule katalog kwestii związanych z dzieleniem się informacją i wiedzą nie wyczerpuje tematu, ponieważ mamy do czynienia ze złożonym zjawiskiem, stanowiącym obszar badawczy o bardzo szerokim zakresie.
Bibliografia
1.
Batorowska, Hanna (2013). Od alfabetyzacji informacyjnej do kultury informacyjnej. Warszawa: Wydawnictwo SBP.
2.
Block, Madeleine (2010). Quantitative analysis of intra-organizational knowledge sharing. Bremen: Europaischer Hochschulverlag.
3.
Case, Donald O. (2007). Looking for information. A survey of research on information seeking, needs, and behavior. Second Edition. Elsevier.
4.
Christensen, Peter H. (2007). Knowledge sharing: moving away from the obsession with best practices. Journal of Knowledge Management, vol. 11, issue 1, pp. 36-47.
5.
Chua, Alton (2003). Knowledge sharing: a game people play. Aslib Proceedings, vol. 55, issue 3, pp. 117-129.
6.
Cisek, Sabina (2008). Badanie zachowań informacyjnych użytkowników bibliotek: metodologia sense-making. W: Maria Kocójowa red. Biblioteka: klucz do sukcesu użytkowników, s. 97-103. http://www.inib.uj.edu.pl/wyd_iinb/s3_z5/cisek-n.pdf (odczyt: 3.04.2017).
7.
Cisek, Sabina (2009). Metodologia badań użytkowników informacji w XXI wieku w świetle anglojęzycznej literatury przedmiotu. Praktyka i Teoria Informacji Naukowej i Technicznej, nr 4, s. 3-11.
8.
Correa da Silva, Flavio S.; Agusti-Cullell, Jaume eds. (2008). Information flow and knowledge sharing. Amsterdam, Boston: Elsevier.
9.
Denzin, Norman K. (1989). The research act: a theoretical introduction to sociological methods. Englewood Cliffs, Prentice Hall, 3rd ed.
10.
Fisher, Karen E.; Erdelez, Sandra; McKechnie, Lynne E.F. (2005). Theories of information behaviour. Medford, New Jersey: Information Today, Inc.
11.
Fisher, Karen E.; Julien, Heidi (2009). Information behavior. Annual Review of Information Science and Technology, vol. 43, issue 1, pp. 1-73.
12.
Ford, Dianne P.; Staples, Sandy (2010). Are full and partial knowledge sharing the same? Journal of Knowledge Management, vol. 14, issue 3, pp. 394-409.
13.
Godbold, Natalya (2006). Beyond information seeking: towards a general model of information behaviour. Information Research, vol. 11, issue 4, http://InformationR.net/ir/11-4/paper269.html (odczyt: 3.04.2017).
14.
Hendriks, Paul (1999). Why share knowledge? The influence of ICT on the motivation for knowledge sharing. Knowledge and Process Management, vol. 6, issue 2, pp. 91-100.
15.
Ismail, Nor A.M., Xu, Mark X., Wood, Michael J.; Welch, Christine (2013). To share or not to share? Research-knowledge sharing in higher education institution: preliminary results. International Journal Information Technology and Management, vol. 12, issue 3/4, pp. 169-188.
16.
Jashapara, Ashok (2005). The emerging discourse of knowledge management: a new dawn for information science research? Journal of Information Science, vol. 31, issue 2, pp. 136-148.
17.
Johansen, Jane; Gillard, Sharlett (2005). Information resources project management Communications: personal and environmental barriers. Journal of Information Science, vol. 31, issue 2, pp. 91-98.
18.
Jones, Rachel (2009). Personal knowledge management through communications. Online Information Review, vol.33, issue 2, pp. 225-236.
19.
Julien, Heidi; Pecoskie, Jen; Reed, Kathleen (2011). Trends in information behaviour research, 1999-2008: a content analysis. Library and Information Science Research, vol. 33, issue 1, pp. 19-24.
20.
Kamińska-Czubała, Barbara (2013). Zachowania informacyjne w życiu codziennym. Warszawa: Wydawnictwo SBP.
21.
Meho, Lokman I.; Tibbo, Helen R. (2003). Modeling the information-seeking behaviour of social scientists: Ellis’s study revisited. Journal of the American Society for Information Science and Technology, vol. 54, issue 6, pp. 570-587.
22.
Mierzecka-Szczepańska, Anna (2013). Badania zachowań informacyjnych. Warszawa: Wydawnictwo SBP.
23.
Pilerot, Ola (2012). LIS research on information sharing activities – people, places, or information. Journal of Documentation, vol. 68, issue 4, pp. 559-581.
24.
Ramayah, T.; Yeap, Jasmine A.L.; Ignatius, Joshua (2013). An empirical inquiry on knowledge sharing among academicians in higher learning institutions. Minerva, vol. 51, pp. 131-154.
25.
Reychav, Iris; Weisberg, Jacob (2010). Bridging intention and behavior of knowledge sharing. Journal of Knowledge Management, vol. 14, issue 2, pp. 285-300.
26.
Riege, Andreas (2007). Actions to overcome knowledge transfer barriers in MNCs. Journal of Knowledge Management, vol. 11, issue 1, 48-67.
27.
Rosen, Benson; Furst, Stacie; Blackburn, Richard (2007). Overcoming barriers to knowledge sharing in virtual teams. Organizational Dynamics, vol. 36, issue 3, pp. 259-273.
28.
Sapa, Remigiusz (2009). Metodologia badań obszaru pośredniczenia w komunikacji naukowej z perspektywy nauki o informacji. Kraków: Wydawnictwo UJ.
29.
Świgoń, Marzena (2015). Dzielenie się wiedzą i informacją. Olsztyn: Wydawnictwo UWM.
30.
Teng, James T.C.; Song, Seokwoo (2011). An exploratory examination of knowledge-sharing behaviours: solicited and voluntary. Journal of Knowledge Management, vol. 15, issue 1, 104-117.
31.
Vakkari, Pertti (2008). Trends and approaches in information behaviour research. Information Research, vol. 13, nr 4, http://InformationR.net/ir/13-4/paper361.html (odczyt: 26.06.2017).
32.
Wilson, Thomas D. (2008). The information user: past, present and future. Journal of Information Science, vol. 34, nr 4, pp. 457-464.
33.
Wilson, Thomas D. (1999). Models in information behaviour research. Journal of Documentation, vol. 55, issue 3, pp. 249-270.
34.
Wilson, Thomas D. (2000). Human information behavior. Informing Science, vol. 3, issue 2, pp. 49-55.
35.
Wilson, Thomas D. (2010). Information sharing: an exploration of the literature and some propositions Information Research, vol. 15, issue 4, http://InformationR.net/ir/15-4/paper440.html (odczyt: 3.04.2017).
36.
Yi, Jialin (2009). A measure of knowledge sharing behaviour: scale development and validation. Knowledge Management Research and Practice, vol. 7, pp. 65-81.
Marek Deja
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
System zarządzania informacją w organizacji jako obszar diagnozy subkultur informacyjnych
Information management system in organizations
as an area for diagnosis of information subcultures
Słowa kluczowe: kultura informacyjna, szkolnictwo wyższe, zarządzanie informacją, zarządzanie wiedzą.
Keywords: higher education, information culture, information management, knowledge management.
Abstrakt
Kultura informacyjna to stale rozwijający się kompleksowy system wartości, postaw i zachowań, które warunkują to, jak informacja jest tworzona, użytkowana i przekształcana w wiedzę w określonym środowisku informacyjnym. Omówione zostały trudności diagnozy kultury informacyjnej: problem skalowalności konceptu kultury oraz problem nadrzędności kultury organizacyjnej w stosunku do kultury informacyjnej organizacji. W artykule przedstawiony został model, który wykorzystuje do potrzeb diagnozy kultury informacyjnej relację między zarządzaniem procesami informacyjnymi i kształtowaniem wiedzy organizacyjnej. Celem artykułu jest określenie sposobu postępowania badawczego w diagnozie kultury informacyjnej w instytucji szkolnictwa wyższego. W postępowaniu badawczym uwzględnione zostały podstawowe elementy modelu diagnostycznego kultury informacyjnej: kontekst typu organizacji, skala diagnozy (subkulturowość), atrybuty, wymiary, typy oraz siła kultury informacyjnej. Artykuł ma charakter metodologiczny i stanowi przyczynek do przeprowadzenia szerszych obserwacji w zakresie kultury informacyjnej jednostek szkolnictwa wyższego.
Abstract
Information culture is a constantly evolving complex system of values, attitudes and behaviors that determine how information is created, used, and transformed into knowledge in a specific information environment. The difficulties of information culture diagnosis was discussed: the problem of the scalability of culture concept and the problem
of the superiority of organizational culture in relation to the organization’s information culture. The article presents a model that uses the relationship between the management of information processes and organizational knowledge for the purposes of examining information culture. The aim of this article is to define a way to conduct research in the diagnosis of information culture in higher education institutions. The basic elements of the diagnostic model of information culture include: context of organization type, scale of diagnosis (subculture), attributes, dimensions, the types and strength of information culture. This article has a methodological approach and is an introduction to a broader observation
of the information culture of higher education units in Poland.
Wstęp
Kultura informacyjna stanowi poboczny obszar badań prowadzonych w nauce o zarządzaniu oraz informatologii. W obu tych dyscyplinach dochodzi do niejasności w stosowaniu tego terminu oraz różnego rozumienia problemów diagnozy tej kultury. W nauce o zarządzaniu główną trudnością badań jest bliska relacja kultury informacyjnej i kultury organizacyjnej. W informatologii termin ten został powiązany z problemami zachowań informacyjnych lub alfabetyzacji informacyjnej, a trudność stanowi tutaj jego pojmowanie w szerszym kontekście, jako cechy społeczeństwa informacyjnego. W artykule przedstawiono sposób diagnozy kultury informacyjnej, w której akcentowany jest jej interdyscyplinarny charakter. Główne pytanie badawcze dotyczy sposobu, w jaki można dokonać diagnozy kultury informacyjnej w obszarze organizacji. Pytanie, jak zdiagnozować kulturę informacyjną organizacji, wymaga także zastanowienia się nad tym, co rozumiemy pod terminem kultura informacyjna i jakie atrybuty podlegają w takim badaniu obserwacji i analizie. Od badacza wymagana jest ścisła koncentracja na problemach zarządzania informacją i wiedzą w organizacji oraz na normach i wartościach przejawianych w stosunku do informacji przez pracowników.
Kultura informacyjna to stale rozwijający się kompleksowy system wartości, postaw i achowań, które warunkują to, jak informacja jest tworzona, użytkowana i przekształcana w wiedzę w określonym środowisku informacyjnym (Katopol, 2007; Lauri, Heidmets, Virkus, 2016; Mei-Yu, 2006; Zheng, McLean, Yang, 2005). W instytucjach informacji i iedzy pojęcie kultury sprowadza się do problematyki informatologii, ponieważ strategie i cele oraz ogólne wartości pracownicze tych organizacji skoncentrowane są na rozwoju wiedzy organizacyjnej i zdolności przetwarzania informacji. Jednostki nauki i szkolnictwa wyższego oraz organizacje sektora prywatnego, w których główny kapitał obrotowy oparty jest na posiadanych informacjach lub wiedzy, zacierają granicę między konceptem kultury informacyjnej i kultury organizacyjnej. W ramach przeglądu piśmiennictwa przedstawione zostaną dwie zasadnicze trudności pojawiające się podczas diagnozy kultury informacyjnej.
Interdyscyplinarny problem kultury informacyjnej a trudności
diagnostyczne
Pierwszą trudnością diagnozy kultury informacyjnej jest precyzyjne określenie relacji lub granicy między terminami kultury organizacyjnej i kultury informacyjnej. Według kilku koncepcji kultura organizacyjna zawiera w sobie elementy kultury informacyjnej, biznesowej i komunikacyjnej (Roman, 2013, 2015; Ryznar, 2001). Relacja ta intepretowana jest na różne sposoby. Część autorów uznała, że kultura informacyjna i kultura organizacyjna w warunkach ekonomii wiedzy stają się dla siebie równoznaczne. Synteza kultury informacyjnej i kultury organizacyjnej jest integralną częścią procesu kształtowania organizacji opartej na wiedzy (Curry, Moore, 2003). Gilian Oliver (2004) sprowadza tę relację do zależności wiedzy organizacyjnej i kultury; zaznacza, że kultura informacyjna i kultura organizacyjna są ze sobą powiązane, co wynika z faktu, że wiedza pracowników przekłada się na wszelkie procesy organizacyjne (Oliver, 2004). Dominującym poglądem na relację kultur w organizacji jest nadrzędność kultury organizacyjnej w stosunku do kultury informacyjnej (Oliver, 2004; Sundqvist, Svärd, 2016). Anna Wojtowisz (2004) przyjęła sześć podstawowych przejawów kultury organizacyjnej: symbole, sposoby komunikowania się, rytuały, mity i tabu (Wojtowicz, 2004, s. 160 za Zbiegień-Maciąg, 1999, s. 44-50; Sikorski 1999, s. 236-237) oraz klimat organizacyjny (Wojtowicz, 2004, s. 160 za Kożusznik, 2002, s. 232; Stachowicz, Machulik 2001, s. 35-37). Taka struktura odwodzi od stwierdzenia, że kultura informacyjna to zbliżona znaczeniowo kategoria do kultury organizacyjnej. W badaniach nad kulturą informacyjną nie pojawia się problematyka symboli, mitów, tabu lub klimatu. Są to znacznie szersze pojęcia odnoszące się w sposób generalny do funkcjonowania człowieka w społeczeństwie. Mogą one mieć wpływ na procesy informacyjne, jednak jest to tylko fragment oddziaływania tych fenomów na człowieka w organizacji.
Kultura informacyjna ma istotny wkład w procesy podejmowania decyzji i podobnie jak kultura organizacyjna oddziałuje na efektywność organizacji przez wpływ na wykorzystanie wiedzy w organizacji (Zheng, McLean, Yang, 2005). W tym kontekście kultura organizacyjna to konstrukt szerszy, który wpływa na to, jakie decyzje zostaną podjęte, jakie przedsięwzięcia zostaną wdrożone, aby zapewnić efektywność funkcjonowania instytucji w zgodzie ze strategią lub celami wyznaczanymi przez kadrę zarządzającą. Kultura informacyjna wpływa na skuteczność podejmowania decyzji przez wpływ na wykorzystanie wiedzy organizacyjnej i sposób użycia informacji w procesach decyzyjnych (Zheng, McLean, Yang, 2005). Może zostać uznana w takiej relacji za element kultury organizacyjne, który wpływa na kluczową, informacyjną warstwę działalności organizacji.
Drugą trudnością diagnozy kultury informacyjnej jest problem skalowalności konceptu kultury. W informatologii silnie upowszechnionym sposobem interpretacji kultury informacyjnej jest jej rozumienie w kontekście cech społeczeństwa informacyjnego (Kisilowska, 2016). W szczególności interpretacja ta dotyczy zachodzących w nim procesów kształtowania się kompetencji informacyjnych, które następują w wyniku życia zbiorowego. Kultura informacyjna to w ujęciu generalnym kultura społeczeństwa informacyjnego, która jest następstwem kultury czytelniczej, bibliotecznej, medialnej i informatycznej; scala ich dorobek (Batorowska, 2009). Taka wizja kultury posiada edukacyjne brzemię, które sprowadza się do występowania kultury wzorcowej, właściwej lub wysokiej. Koncepcja ta zakłada, że istnieje określony, właściwy sposób korzystania z informacji, który ukształtowany jest przez świadomość informacyjną, wartości postawy, motywy i wychowanie w określonym środowisku społecznym. Kultura wyznacza to, jakie zachowania informacyjne są etycznie poprawne i pozytywnie oceniane, a nawet sugeruje się określenie kodeksu człowieka o wysokiej kulturze informacyjnej (Batorowska, 2009). W skali ogólnospołecznej przyjmuje się możliwość wdrożenia rozwiązań na poziomie edukacji, które będą wpływały na kształt kultury informacyjnej przez rozwój kompetencji informacyjnych, tj. alfabetyzację informacyjną społeczeństwa. Nie ma tutaj możliwości przyjęcia różnych typów kultury a jedynie różne typy użytkowników informacji, którzy przez swoje kulturowe dziedzictwo i edukację będą wpływali na cechy kultury informacyjnej społeczeństwa. W nauce o zarządzaniu przyjęło się mówić nie tylko o funkcjonowaniu wielu subkultur w ramach różnych instytucji społecznych, ale także o występowaniu wielu wariantów subkulturowych w obrębie jednej organizacji (Cameron, Quinn, 2006).
Z perspektywy organizacyjnej słuszne wydaje się założenie, że przez kształtowanie kompetencji informacyjnych wśród pracowników dąży się do optymalizacji procesów informacyjnych. Jednak problem kultury sięga głębiej i nie jest on wynikiem wyłącznie posiadanych umiejętności przez osoby lub grupy. „Kultura informacyjna jest kształtowana przez informację konkretnej organizacji (jej zasoby, technologię przetwarzania i komunikowania) oraz ludzi, którzy z tymi informacjami pracują. Kultura konstytuuje pozycję informacji – sposób jej percepcji (nadawanie jej znaczenia) i wykorzystania. Jej zadaniem jest kształtowanie i sprzyjanie pożądanym zachowaniom informacyjnym” (Materska, 2007, s.198). Nie ma optymalnej kultury informacyjnej. Kultura jest właściwa dla danego środowiska Rozumienie kultury jako właściwości danego środowiska to podstawa dla przyjęcia skali jej pomiaru.
Organizacja jest szczególnym bytem społecznym, w którym ludzie poddawani są procesowi akulturacji, tj. wpajaniu wzorców kulturowych przez grupę pierwotną. Jest to jedna z głównych przyczyn tworzenia się subkultur w organizacji (rys. 1). „Subkultury poszczególnych jednostek organizacyjnych i nawet niewielkich zespołów wytwarzają się głównie w większych organizacjach. Łatwo to zauważyć, przyglądając się na przykład dowolnej szkole wyższej. Nawet jeśli nie prowadzi ona wymiany międzynarodowej, międzykulturowość od razu jest widoczna, jeśli weźmie się pod uwagę na przykład poszczególne grupy wchodzących w skład uczelni” (Koźmiński, Jemielniak, Latusek, 2009, s. 7).
Rysunek 1. Perspektywa diagnozy subkultury informacyjnej
Źródło: Koźmiński, Andrzej; Jemielniak, Dariusz; Latusek, Dominika (2009). Współczesne spojrzenie na kulturę organizacji. E-Mentor, nr 3 (30). http://www.e-mentor.edu.pl/artykul/index/numer/30/id/648
(odczyt: 18.06.2017)
Subkulturę należy rozumieć jako cechy grup środowiska informacyjnego, które kształtują się w wyniku „wzajemnego przyciągania” lub podobieństw w zakresie doświadczenia, wykonywanych zadań i realizacji tych samych celów. Istotą tworzenia się subkultur są częste interakcje wynikające z ograniczeń obszaru miejsca pracy, zespołowej wymiany wiedzy lub interakcji w ramach danego systemu (informacyjnego) (Koźmiński, Jemielniak, Latusek, 2009).
Skalowalność kultury informacyjnej nie jest oczywista w sytuacji, gdy w danej organizacji przyjęty został ogólnoorganizacyjny system informacyjny. W opisywanym przypadku uniwersytetu można zauważyć, że jednostki A, B i C pełnią różne funkcje w organizacji. Wszyscy pracownicy organizacji podlegają tym samym regulacjom wewnętrznym i systemowi informacyjnemu. Jak sprawdzić stan kultury z perspektywy tych jednostek? Czy będą one posiadały różne kultury? Czy będą stanowiły część kulturowej całości? Jeżeli tak, to jak stwierdzić indywidualną zależność tych jednostek od kultury informacyjnej organizacji? Subkultury informacyjne stanowią integralną część kultury informacyjnej organizacji; są od niej zależne i posiadają indywidualny charakter wynikający z różnic położenia w strukturach i różnych funkcji w systemie informacyjnym. W przypadku kultury organizacyjnej potwierdzili to Kim Cameron i Robert Quinn (Cameron, Quinn, 2006).
Metoda diagnozy kultury informacyjnej organizacji i materiał
badawczy
W badaniach organizacyjnych przyjęło się rozróżniać koncepcję kultury w organizacji i koncepcję atmosfery w organizacyjnej. Atmosfera organizacji jest cechą nietrwałą, która przemija, ale daje pogląd na indywidualne zachowania i postawy uwarunkowane przez chwilowe stany psychiczne. Atmosfera może zmieniać się radykalnie z dnia na dzień, w zależności od sytuacji oraz pozazawodowych problemów. Przejawia się w zachowaniach pracowników w konkretnych sytuacjach zadaniowych. Obserwacja atmosfery dostarcza istotnych informacji dla menadżerów, którzy mogą reagować na wystąpienie ściśle określonych zjawisk akcydentalnych. Kultura jest podstawową cechą organizacji, która zmienia się powoli. Obejmuje podstawowe wartości i wspólne interpretacje różnych faktów i rozwiązań systemowych. W praktyce badawczej przejawia się to w dwóch typach postępowania. Badacze atmosfery chcą sprawdzić jak jednostki postrzegają swoje funkcjonowanie w organizacji (zachowania informacyjne), badacze kultury chcą się dowiedzieć jakie cechy posiada organizacja lub jak ta organizacja jest postrzegana według ogólnego wzorca (kultura informacyjna) (Cameron, Ettington, 1988).
Badając kulturę na poziomie organizacji, można wybrać jedną z trzech strategii postępowania. Podejście holistyczne, w którym badacz uczestniczy w kulturze i oddaje się pogłębionej obserwacji uczestniczącej. Może w takim postępowaniu przyjąć pozycję jednego z członków organizacji. Drugi typ postępowania to podejście metaforyczne lub językowe, gdzie analizuje się wzorce języka w dokumentach, sprawozdaniach, opowieściach i rozmowach w celu odkrycia wzorców kultury. Trzecie podejście – ilościowe, pozwala na uwzględnienie oceny cech organizacji oraz pozwala na redukcję kultury do danych statystycznych (Cameron, Quinn, 2015).
Proponowane jest przeprowadzenie badania w myśl założeń metodologii mieszanej i tezy o kompatybilności danych jakościowych i ilościowych, co pozwoli na redukcję trzech wyżej wymienionych podejść w jedno, skoncentrowane na efekcie praktycznym i na zdobyciu możliwie najszerszego materiału badawczego. W myśl tej tezy dane ilościowe i jakościowe są ze sobą komplementarne, jeżeli ich jednoczesna analiza jakościowa lub ilościowa daje podstawy do skutecznego wnioskowa i uzyskania jak najlepszych wyników. Badacz powinien wybrać taką drogę postępowania, która najlepiej znajdzie zastosowanie „w prawdziwym świecie”. Należy wybrać drogę najbardziej efektywną, która przyniesie najlepszej jakości rezultaty bez względu na ograniczenia paradygmatyczne lub jakiekolwiek założenia, które mogą odwieść badacza od poznania prawd o charakterze funkcjonalnym (Johnson, Christensen, 2010).
Formą synkretycznej działalności naukowej można nazwać „metodologie mieszaną”, która stała się szczególnie eksponowanym tematem rozważań metodologicznych tego wieku. W opinii autora nie powinna być rozważana jako trzeci paradygmat stanowiący odpowiedź na ontologiczne i epistemologiczne spory. Stanowi nurt poszukiwań dążących do zwiększenia efektywności pozyskiwania danych komplementarnych, skutecznego modelu postępowania badawczego, który umożliwia możliwie pełną analizę zjawisk. „Metodologia mieszana” to swoista metodyka triangulacji metod badawczych oparta o tezę o kompatybilności danych (Johnson, Christensen, 2010). W przypadku badań kultury w organizacji spory epistemologiczno-ontologiczne dotyczą głównie wyboru koncepcji antropologicznej albo socjologicznej lub podejścia semiotycznego albo funkcjonalnego (Cameron, Quinn, 2015). Przyjęto, że każde z tych podejść posiada szereg zalet i nie wykluczają się one w procesie badawczym.
Obszar treści organizacji
Obserwacja uczestnicząca, która została wsparta przez analizę rozmów i opowieści, została ustrukturyzowana przez model obszaru treści organizacji. Pięciopoziomowy model zakłada, że kultura informacyjna możliwa jest do zdiagnozowania i zaobserwowania na pięciu poziomach wpływu informacji na wiedzę organizacyjną, które określone zostały jako atrybuty kultury informacyjnej organizacji (Deja, 2017). Atrybuty kultury informacyjnej to:
– środowisko informacyjne – rozumiane jako ogólne uwarunkowania organizacyjne sprzyjające wdrożeniu określonego systemu informacyjnego i rozwojowi wiedzy, wpływające na normy i wartości informacyjne oraz funkcję zasobów informacji;
– system zarządzania procesami informacyjnymi – rozwiązania strukturalne i technologiczne organizujące wertykalne i horyzontalne przepływy informacji;
– zasoby informacyjne – zasób wiedzy jawnej, dane i ich przetworzone formy oraz źródła informacji (z wewnątrz i z otoczenia organizacji) – stanowią podstawą rozwoju wiedzy indywidualnej lub kompetencji stanowiskowych, które służą podejmowaniu decyzji w organizacji;
– procesy informacyjne – pozyskiwanie, przetwarzanie, gromadzenie i udostępnianie danych w ramach działań organizacji;
– użycie informacji – cel użycia informacji, który obejmuje normy i wartości informacyjne przejawiane w trakcie wykorzystania informacji. Atrybut ten stosowany jest do określenia dominujących pobudek lub celów użycia informacji, które występują spontanicznie lub są motywowane systemowo wśród pracowników i osób zarządzających informacją.
Obszar treści funkcjonuje poza formalnymi podziałami strukturalnymi i jest stałym zestawem elementów środowiska pracy na uczelniach. Model ten porządkuje obserwację lub prowadzenie wywiadów w organizacji (Deja, 2017). Istotą diagnozy jest określenie pewnych standardów postępowania (norm informacyjnych) lub stosunku od informacji (wartości informacyjnych) wpływających na bardziej chwilowe i indywidualne zachowania informacyjne ogółu pracowników. Normy i wartości informacyjne to zbiorowe przejawy kultury informacyjnej, które obrazują ogólne tendencje zachowań i potrzeb informacyjnych na pięciu poziomach obszaru treści organizacji.
Wymiary kultury informacyjnej
W badaniu kultury informacyjnej należy skoncentrować się na wymiarach, które pozwolą na uchwycenie generalnych poglądów na to, jak informacja w organizacji przekształcana jest w wiedzę i jak ten proces może wpływać na proces podejmowania decyzji. Próbę utworzenia takich wymiarów podjął Chun Wei Choo (2013). Opracował koncepcję kultury informacyjnej, która miała potwierdzić hipotezę o możliwości zastosowania modelu wartości konkurujących Quinna i Camerona w badaniach nad kulturą informacyjną. Ostatecznie model ten nie nadaje się do prowadzenia badań stricte w zakresie informatologii, ponieważ kładzie zbyt duży nacisk na procesy zarządcze i organizacyjne, które organizują użycie informacji. Model ten wbrew intencji autora nadaje się perfekcyjnie do diagnozy wpływu kultury organizacyjnej na zarządzanie informacją w organizacji.
W pewnym sensie Choo wpadł w pułapkę opisywaną we wstępie tego artykułu.
W badaniu podjętym na użytek niniejszego artykułu przyjęty został autorski model diagnostyczny kultury informacyjnej, który organizuje wskaźniki jakości informacji na czterech biegunach układu współrzędnych (rys. 2). Wymiar pierwszy „zarządzanie informacją”, różnicuje atrybuty jakości informacji w zakresie wewnętrznej i zewnętrznej orientacji informacyjnej. Problem orientacji informacyjnej został dokładnie opisany przez zespół Marchanda (Marchand, Kettinger, Rollins, 2002). Wymiar drugi „zarządzanie wiedzą” przeciwstawia wskaźniki jakości informacji zależne od otwartości na dzielenie się wiedzą lub kontroli kompetencji. Problem kulturowych uwarunkowań otwartości i kontroli przedstawił m. in. Thomas Davenport (Davenport, 1994). Opracowane przez autora tego artykuł na podstawie analizy i krytyki piśmiennictwa dwa wymiary kultury informacyjnej zostały zestawione w taki sposób, aby uwidocznić ich wzajemne oddziaływanie na siebie (rys. 2). Na potrzeby badania subkultur informacyjnych instytucji szkolnictwa wyższego wyłonione zostały cztery typy kultury informacyjnej (silos, wioska innowacji, profesjonalna biurokracja, supremacja), które w czysto matematyczny sposób stanowią wypadkowe oddziaływania na siebie czterech qualiów kultury informacyjnej: orientacji wewnętrznej i zewnętrznej oraz otwartości i kontroli. (w podrozdziale tego artykułu: Metodologiczne ujęcie problemu diagnozy kultury informacyjnej z perspektywy qualiów). Podobnie jak w przypadku modelu wartości konkurujących, diagnoza kultury odbywa się przez dokonanie bilansu czterech typów kultury w jednej organizacji. Kultury te konkurują ze sobą. Przeciwwaga kultur informacyjnych przyjętych w autorskim modelu diagnostycznym (rys. 2) będzie wyznaczała indywidualny profil danej subkultury.
Rysunek 2. Model diagnostyczny kultury informacyjnej instytucji szkolnictwa
wyższego. Atrybuty jakości informacji
atrybuty jakości
Źródło: oprac. własne.
W diagnostycznym modelu kultury informacyjnej przyjętych zostało 16 atrybutów jakości informacji wykorzystywanych do jej oceny w systemach informacyjnych (Grudzień, 2012, s. 638). Siła danej kultury będzie odzwierciedlała jej wpływ na atrybuty jakości informacji. Dobór tych atrybutów jest podyktowany ich zbliżoną kategoryzacją pod względem poziomów struktury systemu informacyjnego do modelu obszaru treści organizacji. Struktura wpływu jakości informacji na wiedzę w procesach decyzyjnych przedstawiona została w schemacie struktury wpływu kultury informacyjnej na jakość na rysunku 4.
Model struktury wpływu kultury informacyjnej na atrybuty jakości
Powszechnie stosowanym schematem oddziaływania wskaźników jakości w informatologii i naukach o zarządzaniu jest model liniowy. Warianty tego modelu różnią się ze względu na obszar zainteresowań badanego. Opracowane struktury danych są komunikowane, odbierane i interpretowane przez użytkownika, stając się informacją, która w dalszej kolejności w wyniku procesów myślowych buduje wiedzę (rys. 3). Wiedza intepretowana jest jako wykorzystanie zagregowanej informacji do przeprowadzenia różnych procesów (Abramowicz, 2004) – w kontekście uniwersytetów będą to procesy instytucjonalne zależne od decyzji kadry zarządzającej.
Rysunek 3. Relacje między danymi, komunikatem, informacją a wiedzą (przykład)
Źródło: Grudzień, Łukasz (2012). Koncepcja oceny jakości informacji o procesach w systemach zarządzania. W: Ryszard Knosala red. Innowacje w zarządzaniu i inżynierii produkcji. Poznań: Politechnika Poznańska, Wydział Budowy Maszyn i Zarządzania, s. 633–644.
Powyższy schemat posiada luki logiczne związane z hierarchicznością i brakiem wzajemnego odziaływaniem na siebie poszczególnych składników. Mankamentem takiego modelu jest pominięcie podstawowego czynnika efektywności organizacji, tj. decyzji, które na zasadach dwustronnych relacji oddziałują na jakość informacji i danych oraz stan wiedzy (rys. 4).
Rysunek 4. Model struktury wpływu kultury informacyjnej na atrybuty jakości
dane_inf_wiedza_dec_kult
Źródło: oprac. własne
Współczesne badania poświęcone kulturze informacyjnej w coraz większym stopniu koncentrują się na wpływie zachowań i norm informacyjnych na kształt wiedzy organizacyjnej i podejmowanie decyzji. Systemy informacyjne (jakość informacji), wspólna wiedza organizacji (stan wiedzy) oraz indywidualne kompetencje informacyjne (jakość danych; głównie przez odpowiednie zastosowanie kompetencji informatycznych, jak np. tworzenie modeli danych dostosowanych do potrzeb informacyjnych) są zależne od uformowanej w organizacji kultury i etyki informacyjnej. Jednocześnie stwierdzony został wpływ wizji sukcesu na kształtowanie się kultury informacyjnej, który w głównej mierze uwarunkowany jest przez postawy pracowników (decyzje) (Widén-Wulff, 2000). Yingqin Zheng (2005) uznał, że kultura informacyjna łączy umiejętności pracowników, postrzeganie problemów oraz normy i zasady postępowania z dostępnością, zrozumieniem i użyciem informacji. Użytkowanie informacji obejmuje identyfikację zdolność organizacji do zdobywania, interpretacji i wykorzystania danych potrzebnych do podejmowania decyzji. Decyzje te są częściowo rezultatem kultury informacyjnej organizacji i jednocześnie mają wpływ na kształtowanie środowiska informacyjnego (Zheng, McLean, Yang, 2005). Decyzje są kluczem do poznania kultury informacyjnej, ponieważ stanowią przejaw interakcji dane-informacja-wiedza. Nie można stwierdzić lub ocenić jakości wiedzy ze względu na jej ukryty charakter. Jakość decyzji podlega pod obszar dyscypliny nauki o zarządzaniu. Można natomiast stwierdzić jakość procesów podejmowania decyzji. Przez zapewnienie napływu odpowiedniej jakości informacji i danych, które będą wpływały się na kształt i rozwój wiedzy organizacyjnej, zwiększy się komfort podejmowania decyzji i zmniejszy niepewność decyzyjna (Citroen, 2011). Cechą środowiska informacyjnego, która będzie miała wpływ na sposób wymiany wiedzy, informacji i danych jest właśnie kultura informacyjna. W praktyce zawodowej osób zarządzających informacją na uczelniach wyższych za cel stawia się opracowanie systemu wymiany informacji, który dostarczy właściwej informacji w celu podejmowania właściwych decyzji (Deja, 2017). Skuteczność tego systemu nie jest możliwa bez znajomości norm i odpowiednich zachowań oraz rozwoju kompetencji pracowników na wszystkich szczeblach pracy w organizacji.
Siła kultury informacyjnej
Siła kultury to pewien stopień, w jakim kultura wpływa na wszystko, co dzieje się w organizacji (Deal, Kennedy, 1982). Kultura informacyjna to konstrukt, który nabiera siły przez obcowanie z obiektami informacyjnymi (Kisilowska, 2016). Jednak istotą intensyfikacji danej kultury informacyjnej jest czas funkcjonowania danego środowiska organizacji i rozwój jego struktur, co łącznie rozumiane jest jako proces starzenia się organizacji (Ginman, 1987). Proces rozwoju struktur organizacyjnych współgra z poglądem, że istnieje dystrybutywny rozkład subkultur informacyjnych (Kisilowska, 2016). Kultura w organizacji stanowi „osobowość organizacji”. Tym silniejsza jest ta osobowość, im bardziej kultura jest dostrzegana i im większy jest jej zasięg oddziaływania (Koźmiński, Jemielniak, Latusek, 2009).
W kontekście oddziaływania kultury informacyjnej na jednostki, tj. subkultury, należy pamiętać, że kultura informacyjna to konstrukt, który ma genezę oddolną. Główny kapitał wiedzy w organizacji posiada tzw. kadra pomocnicza – personel niższego szczebla, który w zachodzących procesach informacyjnych przejawia zachowania i potrzeby.
Z czasem stają się one wartościami lub normami przejawianymi wobec informacji i wpływają na jej jakość oraz dalszy rozwój wiedzy organizacyjnej (Katopol, 2007). Podział na trwałe zespoły lub grupy pracownicze zorganizowane w postaci wewnętrznej struktury jednostek organizacyjnych jest czynnikiem segmentacji kompetencji i wiedzy pracowników, która prowadzi do powstawania unikatowych subkultur informacyjnych. Sprowadza to problem diagnozy do konieczność przyjęcia skali i perspektywy obserwacji właściwej dla danej organizacji lub środowiska. Subkultury informacyjne będą miały różne położenie w organizacji, historię, normy a przede wszystkim będą pełniły różne funkcje w środowisku informacyjnym, co sprawia, że w różny sposób będą doświadczały kultury informacyjnej organizacji. Osoba obserwująca, w którą wciela się respondent lub badacz, będzie musiała reprezentować położenie danej subkultury, tak jakby obserwowała swoją organizację z perspektywy własnego stanowiska pracy. Czy taka perspektywa diagnozy jest możliwa do zastosowania w przypadku kultury? Odpowiedź na to pytanie jest kwestią metodycznej weryfikacji w postaci testu modelu diagnostycznego kultury informacyjnej, którego elementem funkcjonalnym jest skala pomiaru siły kultury w organizacji. Jednak zasadność przyjęcia perspektywy pierwszoosobowej w badaniu wiąże się z szerszym problemem świadomości i qualiów kultury informacyjnej.
Metodologiczne ujęcie problemu diagnozy kultury informacyjnej
z perspektywy qualiów
Termin qualia (l. mn.), w l. poj. quale, pochodzi od łacińskiego qualitas, znaczącego jakość. Lewis w 1929 r., który po raz pierwszy starał się określić ten termin uznał, że są to subiektywne przeżycia. Qualia są podstawą doświadczenia lub przeżywania interakcji z danym bytem. „Qualia, ze względu na swą nieuchwytną naturę, jaką jest próba przełożenia świadomości na materię, stanowią twardy orzech, zarówno dla filozofów umysłu, jak i dla kognitywistów, a nawet dla badaczy komputacyjnych” (Witkowska, 2013, s. 141). Jak w obliczu takiej nieuchwytności przeżyć można wykorzystać qualia do reprezentacji kultury informacyjnej i jej pomiaru? Marta Witkowska (2013) podkreśla, że próby intersubiektywizacji danego przeżycia, czyli opisu z perspektywy trzeciej osoby, skazane są na niepowodzenie. Nie zmienia to jednak faktu, że niepodważalne jest występowanie pewności i jakości własnych doznań, co sprowadza się do możliwości uchwycenia sposobu istnienia i wyrażenia opinii o danym stanie. Jakub Jonkisz (2009) sprowadza problem qualiów do kwestii rozstrzygnięć w zakresie dostępu świadomości i fenomenalności treści. Świadomość dostępu jest cechą wszelkiej informacji, którą wykorzystujemy w rozumowaniu lub w planowaniu działań (Jonkisz, 2009). Jest kwintesencją procesu decyzyjnego, który w badaniach kultury informacyjnej wielokrotnie podkreślony został jako przejaw kultury informacyjnej uzależniony od stanu wiedzy i informacji w organizacji. Świadomość w ujęciu funkcjonalistycznym może być w kategoriach informacji łączona z kulturą, która rozumiana jest jako druga natura człowieka (Hańderek, 2015).
Świadomość fenomenalna ma charakter introspekcyjny i definiowana jest przez opis „jak to jest posiadać pewien stan” (Block, 1995, s. 228). Badając kulturę informacyjną w kontekście qualiów środowiska informacyjnego, staramy się stworzyć opis mechanizmów umożliwiających nam świadomy dostęp do treści organizacji, tj. informacji i wiedzy, a nie wniknąć w subiektywność procesu samego w sobie. Trzeba przyjąć istnienie luki eksplanacyjnej przy wyjaśnieniu fenomenalnych aspektów kultury, która wynika z faktu, że informacje zawsze pełnią określoną funkcję w naszych działaniach, są podstawą zachowań i decyzji. Termin qualia jest najczęściej łączony właśnie ze świadomością fenomenalną, jednak przez pewną konieczność badania mechanizmów świadomego dostępu, tj. przez nieuchwytność lub niewyrażalność wynikającą z subiektywnej natury qualiów, najczęściej wykorzystywany jest on do określenia odczuwalnej jakościowości w trakcie procesu percepcji (Jonkisz, 2009).
Materiał badawczy i pomiar kultury
W obliczu impasu rozumienia problemu qualiów na potrzeby niniejszego artykułu poszukiwany był konsensus dla zdefiniowania terminu qualiów, w którym autor tego artykułu starał się wykroczyć poza spór epistemologiczno-ontologiczny. W wyniku pierwszego etapu obserwacji opracowany został wariant pragmatyczny, w którym w sposób epistemologiczny poszukiwane są sytuacje i zjawiska informacyjne na pięciu poziomach obszaru treści organizacji. Sytuacje te są nacechowane czterema przyjętymi w modelu diagnostycznym kultury informacyjnej qualiami (otwartość, kontrola, orientacja wewnętrzna, orientacja zewnętrzna). Następnie poszukiwane są twierdzenia osób w organizacji, które w interpretacji badacza będą określały obszary ich występowania. Na podstawie odległości zidentyfikowanych obszarów od punktu obserwacji badacz określa stopnie skali i nadaje im wartość wpływu odzwierciedlającą siłę oddziaływania fenomów kulturowych w strukturach organizacyjnych. Stanowisko pracy jako punkt obserwacji jest istotą przyjęcia pierwszoosobowej perspektywy przez badanego lub badacza. Pespektywa ta pozwala na odniesienie się do fenomów kulturowych z punktu widzenia przedstawicieli różnych subkultur. W przypadku obserwacji uczestniczącej badacz musi czasowo osiąść w danej subkulturze, aby móc dostrzec unikatowy punkt widzenia. Drugi etap lub wariant postępowania obejmuje wykorzystanie metod ilościowych, tj. formularzy wypełnianych przez respondentów, dzięki czemu możliwe jest przeprowadzenie diagnozy jednocześnie na wielu stanowiskach pracy i w różnych subkulturach. Respondenci stają się obserwatorami, a badacz tylko organizuje ich obserwację z perspektywy uczestnika kultury. Taki zabieg pozwoli na uzyskanie znacznie szerszego materiału badawczego i wykazanie indywidualnego charakteru poszczególnych subkultur. Zaletą takiego postępowania jest niewątpliwie możliwość dokonania porównań i wykazanie różnic między profilem kultury informacyjnej organizacji przedstawianym przez przedstawicieli różnych subkultur.
Podsumowanie
Kultura dla członków organizacji jest drugą naturą funkcjonowania, której samodzielnie nie zauważają (Hańderek, 2015; Koźmiński, Jemielniak, Latusek, 2009). Badając kulturę, należy skoncentrować uwagę osoby obserwującej na istotnych przejawach kulturowych, które w ich świadomości posiadają pewne qualia. Badacz powinien przyjąć, że nie jest w stanie w sposób pełny dotrzeć do świadomości uczestników środowiska informacyjnego, a jedynie do wyrazów ich doświadczeń. Istotą diagnozy kultury informacyjnej stają się jej qualia, które odnoszą się do cech środowiska informacyjnego oraz zachowań lub norm doświadczanych przez pracowników. Qualia w diagnozie kultury informacyjnej organizacji rozumiane są jako subiektywne twierdzenia o stanie procesów informacji i wiedzy w organizacji. Stanowią wskaźniki przejawów kulturowych wpływających na jakość informacji i wiedzy. Subiektywna natura qualiów nadaje potencjał diagnozie subkultur informacyjnych. Ich przedstawiciele będą posiadali inne poglądy na kulturę informacyjną organizacji w zależności od pełnionej funkcji i położenia danej grupy w systemie informacyjnym oraz indywidualnych doświadczeń. Sprowadza się to do twierdzenia, że chociaż kultura informacyjna organizacji stanowi bilans różnych kultur przyjętych w modelu, to w ramach subkultur będzie funkcjonowała unikatowa perspektywa doświadczania tego bilansu.
Osoby decyzyjne, które inicjują działanie systemu informacyjnego powinny mieć na uwadze, że chociaż samą kulturą nie da się zarządzać to świadomość jej stanu jest istotnym czynnikiem skuteczności zmian instytucjonalnych. Zmiany w systemie informacyjnym organizacji powinny odbywać się ze świadomością pewnego stanu kultury, a także uwzględniać ewolucję subkultur, która odbywać się będzie równolegle do zmian wdrażanych w systemie informacyjnym na poziomie centralnym. Brak tej świadomości może utrudnić planowanie rozwoju systemu informacyjnego organizacji, a także stać się przyczyną pogłębienia problemów wynikających z barier informacyjnych lub wzrostu poziomu chaosu informacyjnego. Poznanie unikatowej perspektywy doświadczania kultury informacyjnej może pozytywnie wpłynąć na próby wyznaczenia kierunku rozwoju systemu zarządzania informacją z uwzględnieniem potrzeb subkultur jednostek organizacyjnych.
Bibliografia
1.
Abramowicz, Witold (2004). Mobilne filtrowanie informacji jako narzędzie społeczeństwa informacyjnego. W: Czesław Daniłowicz red. Multimedialne i sieciowe systemy informacyjne. Wrocław: Politechnika Wrocławska, s. 365.
2.
Batorowska, Hanna (2009). Kultura informacyjna w perspektywie zmian w edukacji. Warszawa: SBP.
3.
Block, Ned (1995). On confusion about function of consciouse. Behavioral and Brain Science, vol. 2, issue 18, pp. 227–247.
4.
Cameron, Kim; Ettington, Deborah (1988). The conceptual foundation of organizational culture. Higher Education: Handbook of Theory and Research, issue 4, pp. 429–447. https://deepblue.lib.umich.edu/bitstream/handle/2027.42/35462/b1410477.0001.001.txt?sequence=1&isAllowed=y (odczyt:16.05.2017).
5.
Cameron, Kim; Quinn, Robert (2006). Kultura organizacyjna-diagnoza i zmiana: model wartości konkurujących. Kraków: Oficyna Ekonomiczna.
6.
Cameron, Kim; Quinn, Rrobert (2015). Kultura organizacyjna-diagnoza i zmiana: model wartości konkurujących. Warszawa: Wolters Kluwer.
7.
Choo, Chun Wei (2013). Information culture and organizational effectiveness. International Journal of Information Management, vol. 33, issue 5, pp. 775-779. https://search.proquest.com/docview/1441441893?accountid=11664 (odczyt:16.05.2017).
8.
Citroen, Charles (2011). The role of information in strategic decision-making. International Journal of Information Management, vol. 31, issue 6, pp. 493–501. https://doi.org/10.1016/j.ijinfomgt.2011.02.005 (odczyt:25.05.2017).
9.
Curry, Adrianne; Moore, Caroline (2003). Assessing information culture – An exploratory model. International Journal of Information Management, vol. 23, issue 2, pp. 91–110. https://search.proquest.com/docview/212087882?accountid=11664 (odczyt:11.04.2017).
10.
Davenport, Thomas (1994). Saving IT’s soul: human-centered information management. Harvard Business Review, vol. 72, issue 2, pp. 119–131.
11.
Deal, Terrence. E; Kennedy, Alan. A. (1982). Corporate cultures: the rites and rituals of corporate life. Har-Mondsworth: Penguin Books.
12.
Deja, Marek (2017). Kultura informacyjna a zarządzanie informacją w organizacjach nauki i szkolnictwa wyższego.
https://www.researchgate.net/publication/316644873_Kultura_informacyjna_a_zarzadzanie_informacja_w_systemie_nauki_i_szkolnictwa_wyzszego (odczyt:17.06.2017).
13.
Ginman, Mariam (1987). Information culture and businessperformance. Iatul Quarterly, vol. 2, issue 2. http://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1198&context=iatul (odczyt:25.03.2017).
14.
Grudzień, Łukasz (2012). Koncepcja oceny jakości informacji o procesach w systemach zarządzania. W: Ryszard Knosala red. Innowacje w zarządzaniu i inżynierii produkcji. Poznań: Politechnika Poznańska, Wydział Budowy Maszyn i Zarządzania, s. 633–644. http://www.ptzp.org.pl/files/konferencje/kzz/artyk_pdf_2012/p057.pdf (odczyt:27.04.2017).
15.
Hańderek, Joanna (2015). Pojęcia i definicje kultury. W: Piotr Mróz red. Filozofia kultury. Kraków: Uniwersytet Jagielloński, s. 23–42.
16.
Johnson, Burke; Christensen, Lary (2010). Educational research: quantitative, qualitative, and mixed approaches. New York.
17.
Jonkisz, Jakub (2009). Świadomość i subiektywność w współczesnej filozofii umysłu. Razem czy oddzielnie? Analiza i Egzystencja, nr 9, s. 121–139.
18.
Katopol, Patricia (2007). Information culture of support staff in municipal government and implications for managerial decisionmaking. ProQuest Dissertations and Theses.
19.
Kisilowska, Małgorzata (2016). Kultura informacji. Warszawa: Wydawnictwo SBP.
20.
Koźmiński, Andrzej K.; Jemielniak, Dariusz; Latusek, Dominika (2009). Współczesne spojrzenie na kulturę organizacji. E-Mentor, nr 3 (30). http://www.e-mentor.edu.pl/artykul/index/numer/30/id/648 (odczyt:28.04.2017).
21.
Kożusznik, Barbara (2002). Zachowania człowieka w organizacji. Warszawa: PWE.
22.
Lauri, Liia; Heidmets, Mati; Virkus, Sirje (2016). The information culture of higher education institutions: the Estonian case. Information Research, vol. 21, issue 3. http://www.informationr.net/ir/21-3/paper722.html (odczyt:27.02.2017).
23.
Marchand, Donald A.; Kettinger, William J.; Rollins, John D. (2002). Information orientation: the link to business performance. Oxford: Oxford University Press.
24.
Materska, Katarzyna (2007). Informacja w organizacjach społeczeństwa wiedzy. Warszawa: Wydawnictwo SBP. http://bbc.uw.edu.pl/dlibra/docmetadata?id=470&dirds=1&tab=2 (odczyt:25.03.2017).
25.
Mei-Yu, Wang (2006). The impact of information culture on managing knowledge: a double case study of pharmaceutical manufacturers in Taiwan. Library Review, vol. 55, issue 3/4, pp. 209–221. https://search.proquest.com/docview/218306780?accountid=11664 (odczyt:05.03.2017).
26.
Oliver, Gillian (2004). Investigating information culture: a comparative case study research design and methods. Archival Science, vol. 4, issue 3, pp. 287–314. https://doi.org/10.1007/s10502-005-2596-6 (odczyt:07.03.2017).
27.
Roman, Wanda (2013). Kultura dokumentacyjna–geneza, definicja, charakterystyka. Annales Universitatis Paedagogicae Cracoviensis Studia Ad Bibliothecarum Scientiam Pertinentia, nr 11, s. 212–228.
28.
Roman, Wanda (2015). Archiwistyka, zarządzanie dokumentacją i kultura informacyjna. W: Hanna Batorowska red. Kultura informacyjna w ujęciu interdyscyplinarnym. Teoria i praktyka. T. I. Kraków: Uniwersytet Pedagogiczny w Krakowie, s. 180–194.
29.
Ryznar, Zygmunt (2001). Nieodzowny wstęp do informacji. CXO Magazyn Kadry Zarządzającej, nr 1, s. 60-66.
30.
Sikorski, Czesław (1999). Zachowania ludzi w organizacji. Warszawa: Wydawnictwo Naukowe PWN.
31.
Stachowicz, Jan; Machulik, Janusz (2001). Kultura organizacyjna przedsiębiorstw przemysłowych. Kielce: Wydawnictwo Szumacher.
32.
Sundqvist, Anelli; Svärd, Proscovia (2016). Information culture and records management: a suitable match? Conceptualizations of information culture and their application on records management. International Journal of Information Management, vol. 36, issue 1, pp. 9–15. https://doi.org/10.1016/j.ijinfomgt.2015.08.004 (odczyt:04.05.2017).
33.
Widén-Wulff, Gunilla (2000). Business information culture: a qualitative study of the information culture in the Finnish insurance industry. Information Research, vol 5, issue 3. http://www.informationr.net/ir/5-3/paper77.html (odczyt:07.04.2017).
34.
Witkowska, Marta (2013). Czy potrzebne nam qualia? Roczniki Pomorskiej Akademii Medycznej w Szczecinie. Neurokognitywistyka w Patologii i Zdrowiu, s. 141–157.
35.
Wojtowicz, Anna (2004). Istota i modele kultury organizacyjnej — przegląd koncepcji. Zeszyty Naukowe Małopolskiej Wyższej Szkoły Ekonomicznej w Tarnowie, nr 5, s. 159–171.
36.
Zbiegień-Maciąg, Lidia (1999). Kultura w organizacji. Identyfikacja kultur znanych firm. Warszawa: Wydawnictwo Naukowe PWN.
37.
Zheng, Wei; McLean, Gary N.; Yang, Baiyin (2005). The impact of organizational culture, structure, and strategy on knowledge management effectiveness and organizational effectiveness. Ann Arbor: University of Minnesota. https://search.proquest.com/docview/305434413?accountid=11664 (odczyt:04.05.2017).
38.
Zheng, Yingqin (2005). Information culture and development: ict for healthcare in south africa and china. Ann Arbor: University of Cambridge. https://search.proquest.com/docview/301656703?accountid=11664 (odczyt:12.04.2017).
Część II
METODY I NARZĘDZIA
Ewa Głowacka
Instytut Informacji Naukowej i Bibliologii, Uniwersytet Mikołaja Kopernika w Toruniu
Małgorzata Kisilowska
Wydział Dziennikarstwa, Informacji i Bibliologii, Uniwersytet Warszawski
Problemy metodologiczne diagnozowania
kompetencji informacyjnych badaczy z obszaru humanistyki
Methodological aspects of diagnosing information literacy of the scholars in the humanities
Słowa kluczowe: humanistyka, kompetencje informacyjne, metodologia badań, zachowania
informacyjne.
Keywords: humanities, information behaviours, information literacy, methodology.
Abstrakt
Kompetencje informacyjne stanowią istotowy element kompetencji badawczych, akademików, niezależnie od uprawianej dyscypliny. Celem artykułu jest przedstawienie wybranych problemów metodologicznych, jakie towarzyszą badaniom tych umiejętności wśród naukowców reprezentujących obszar nauk humanistycznych. W tekście odwołano się do wybranych polskich i zagranicznych badań dotyczących kompetencji i zachowań informacyjnych wybranej grupy, zwracając uwagę na udokumentowane zmiany w poziomie i zakresie realizowanych umiejętności. Przedmiotem odniesienia jest również metodologia i techniki badawcze stosowane w tych projektach. Wykorzystany materiał pozwala na wskazanie wybranych problemów metodologicznych diagnozowania kompetencji informacyjnych. Ich wyodrębnienie potwierdza narastającą złożoność omawianego pola badawczego oraz – w konsekwencji – konieczność różnicowania i precyzyjnego doboru metod i narzędzi badawczych.
Abstract
Information literacy is an integral element of the research literacy of scholars, regardless of the discipline. The article presents selected methodological problems of surveying the information literacy of academics from the humanities. The authors refer to selected Polish and foreign research reports, focusing on the observed changes in information needs, competencies and behaviours of this group. They also briefly discuss the methodology and tools applied in the projects. As a result, selected methodological problems of diagnosing information literacy are offered. The findings confirm the increasing complexity of the research field, and – in consequence – the necessity of differentiation and precise selection of research methods and tools.
Wstęp
Kompetencje informacyjne to temat często ostatnio podejmowany w literaturze informatologicznej*,1traktowany zazwyczaj jako przedmiot badań, a niekiedy nawet odrębna dyscyplina (Basili red., 2008). Autorzy badań nawiązują do zestawu konkretnych umiejętności, które niezbędne są dla optymalnego funkcjonowania we współczesnym świecie, w bardzo różnych aspektach życia. Można więc znaleźć raporty lub rekomendacje dotyczące niezbędnego poziomu umiejętności w kontekście edukacji, życia zawodowego, zdrowia czy zaangażowania obywatelskiego.
Kompetencje informacyjne – zakres pojęcia
Przyglądając się bliżej zakresowi pojęcia kompetencje informacyjne, widzimy jego bliski związek z problematyką kształcenia tych kompetencji (information literacy) oraz kulturą informacyjną (information culture).
Hanna Batorowska definiuje kulturę informacyjną jako „wydzielony obszar życia i działalności użytkowników informacji obejmujący sferę niezbędnych dla nich środków, takich jak: technika, technologia informacyjna, wiedza i umiejętności informacyjne, sfera ich zbiorowej świadomości informacyjnej, sfera wybranych zachowań będących efektem uczestnictwa w procesie informacyjnym oraz opartych na etyce zasad społecznego współżycia wynikających z korzystania z informacji” (Batorowska, 2009, s. 73). Jak stwierdza Batorowska, pojęcie information literacy w potocznym rozumieniu utożsamiane jest z alfabetyzacją informacyjną, natomiast środowisko bibliotekarzy i pracowników informacji postrzega je znacznie szerzej – jako edukację informacyjną skoncentrowaną na wykorzystywaniu informacji, a nie tylko na umiejętnościach jej wyszukiwania. W tym ujęciu information literacy to umiejętność wyszukiwania i wykorzystywania informacji, kluczowa dla procesu uczenia się przez całe życie. Osoby kompetentne informacyjnie są świadome istnienia strategii wyszukiwania informacji, posiadają umiejętność krytycznego myśle
*1Proste wyszukiwanie wyrażenia „information literacy” w polu „abstrakt” zasobów elektronicznych udostępnianych przez Bibliotekę Uniwersytecką w Warszawie, z zawężeniem do recenzowanych naukowo tekstów z dyscypliny „bibliotekoznawstwo i informacja naukowa” dało w dn. 27 stycznia 2017 roku wynik 11425 rekordów.
nia, co im pozwala selekcjonować, odrzucać, syntetyzować i prezentować informacje na nowe sposoby w celu rozwiązywania realnych problemów (Batorowska, 2013, s. 10).
Tak rozumiane kompetencje są szczególnie potrzebne osobom prowadzącym badania naukowe. Zestawiając powyższy wykaz umiejętności z oczekiwaniami wobec pracowników nauki, można nawet powiedzieć, że składają się one (czy może: stanowić powinny) co najmniej połowę kompetencji badawczych, pozostawiając tę drugą część m.in. na działania twórcze, wiedzę merytoryczną odpowiednią dla dyscypliny, umiejętności metodologiczne w zakresie prowadzenia badań i wnioskowania. Osobną kwestią pozostają kompetencje dydaktyczne pracowników naukowo-dydaktycznych uczelni, wśród których również można wskazać zbiór kompetencji stricte informacyjnych. Ta grupa została jednak wyłączona z prezentowanych w tekście rozważań.
Przedstawione wyżej zestawienie podstawowych kompetencji informacyjnych ma charakter bardzo syntetyczny. Zależnie od obszaru zastosowania, „rozbija się” je na bardzo szczegółowe umiejętności, wiedzę czy postawy. Trudno jest ostatecznie sformułować zamkniętą listę najistotniejszych umiejętności informacyjnych naukowców, ze względu na szereg czynników. Niewątpliwie w obecnie zmieniającym się dynamicznie otoczeniu technologicznym coraz ważniejsze są umiejętności związane z korzystaniem z infrastruktury cyfrowej. W konsekwencji na szeroko rozumiane kompetencje informacyjne składać się będą zarówno kompetencje informatyczne i medialne (korzystanie z zasobów sieciowych i różnych form dokumentów), jak i pewnego rodzaju meta-umiejętność adaptowania posiadanych uprzednio umiejętności „analogowych”, np. formułowania strategii wyszukiwawczych, znajomości lub selekcji źródeł, do środowiska wirtualnego. To ostatnie dotyczy oczywiście przede wszystkim grupy badaczy aktywnych zawodowo przed upowszechnieniem narzędzi i zasobów cyfrowych oraz specjalistów w tych specyficznych obszarach i polach, w których dominują tradycyjne źródła informacji.
Pewne różnice wyznacza też dziedzina badań reprezentowana przez naukowca i konkretny temat badawczy. Badania humanistyczne – jak pisze cytowana przez Caleba Pucketta (2010) Peggy Keeran – mają raczej jakościowy niż ilościowy charakter, uwzględniają wiele perspektyw i paradygmatów kulturowych. To z kolei przekłada się na poszukiwania różnych, często także subiektywnych interpretacji zjawisk, wydarzeń, procesów czy artefaktów. Takie podejście wpływa zarówno na zakres, jak i sposoby czy narzędzia stosowane w procesach informacyjno-wyszukiwawczych, a w konsekwencji
na potrzebę posiadania i doskonalenia specyficznych kompetencji informacyjnych.
Badania kompetencji i zachowań informacyjnych humanistów na
świecie
Poniższy przegląd literatury obejmuje teksty dotyczące nie tylko kompetencji, ale również zachowań informacyjnych badaczy w obszarze humanistyki. Wynika to nie tylko z proporcjonalnie mniejszej reprezentacji analiz „kompetencyjnych” w literaturze przedmiotu, ale przede wszystkim z faktycznej nierozerwalności tych dwóch wątków. Badania i charakterystyki zachowań informacyjnych ujawniają pośrednio zarówno potrzeby, jak i kompetencje w tym obszarze, rezygnacja z tego typu opracowań byłaby więc de facto zubożeniem kompleksowego obrazu potrzeb, umiejętności i zachowań informacyjnych humanistów.
W początkowym okresie autorzy publikacji na temat zachowań informacyjnych w komunikacji naukowej zwracali uwagę na uderzające różnice między przedstawicielami nauk ścisłych i technicznych a humanistycznych i społecznych (zob. np. Bates, 1996; Bates, Wilde, Siegfried, 1995; Siegfried, Bates, Wilde, 1993; Stone, 1982; Wiberley, Jones, 1989). Ujmując w pewnym uproszczeniu: ci pierwsi szybciej, chętniej i sprawniej korzystali z narzędzi i sieciowych zasobów informacji, ci ostatni preferowali indywidualny kontakt ze źródłami drukowanymi czy rękopiśmiennymi, zależnie od specjalizacji, a w przypadku nauk o sztuce – także z właściwymi im obiektami kultury. Z biegiem czasu sytuacja zaczęła się jednak zmieniać. Zarówno różnice, jak i proces pewnej unifikacji wynikały ze specyfiki materiałów i procesów badań i komunikacji naukowej: stopniowo postępującej digitalizacji zasobów piśmienniczych i zbiorów sztuki, adaptowania narzędzi informacyjno-wyszukiwawczych do potrzeb różnych grup użytkowników. Zgodnie z dostępną literaturą (zob. np. Antonijević, Cahoy, 2014; Dalton, Charnigo, 2004; Tenopir, 2014; Tenopir i in., 2010; Tenopir, Volentine, King, 2012), humaniści en block adaptują się do modernizacji technologicznej komunikacji naukowej, a w konsekwencji coraz chętniej i częściej korzystają z narzędzi i zasobów cyfrowych (Mierzecka, Kisilowska, Suminas, 2017). Te ostatnie są zróżnicowanie także pod względem formalnym – obejmują m.in. publikacje drukowane, rękopisy, ale również obrazy i inne dzieła sztuki, zapisy i nagrania muzyczne (i inne dźwiękowe), filmy (Kachaluba, Brady, Critten, 2014). Dostrzegalna pozostaje natomiast różnica między zachowaniami informacyjnymi przedstawicieli różnych dyscyplin z obszaru nauk humanistycznych (Deyrup, 2009), np. historii (Case, 1991; Dalton, Charnigo, 2004; Harris, Hepburn, 2013; Johnson, Duff, 2004; Quan-Haase, Kim, 2011), historii sztuki (Reed, 1992; Reed, Tanner, 2001; Palmer, Teffeau, Pirmann, 2009; zob. też: Bakewell i in., 1988; Kemman, Kleppe, Scagiola, 2012) czy slawistyki (Deyrup, 2009). Różnice te pojawiają się na przecięciu specyfiki źródeł i metodologii badań w danej dziedzinie oraz skali cyfryzacji narzędzi i zasobów, z których korzystają naukowcy. Użyteczność repozytoriów czy aplikacji zależy w znacznym stopniu od poszanowania i uwzględnienia specyfiki humanistycznych potrzeb badawczych i trybu pracy (Toms, O’Brien, 2008; Warwick, 2011).
„Ucyfrowienie” zachowań informacyjnych humanistów nie oznacza jednak wprost powszechnego w badanej grupie podniesienia poziomu i zakresu kompetencji informacyjnych. Z brytyjskich badań prowadzonych w 2002 roku wynika, że 22% humanistów i przedstawicieli sztuk pięknych w przeciwieństwie do jedynie 6% naukowców z dziedzin ścisłych i 8% z nauk medycznych i biologicznych sygnalizuje potrzebę zdecydowanie większej liczby i zakresu szkoleń umiejętności informacyjnych (East, 2005, s. 134). Warto też przyjrzeć się badaniom ukazującym potrzeby informacyjne i umiejętności humanistów. Do największych takich projektów prowadzonych na początku XXI wieku można zaliczyć:
1.
RSLG Study – badania zlecone przez Research Support Libraries Group a prowadzone w 2002 r. wśród 250 respondentów w Wielkiej Brytanii.
2.
DLF Study sfinansowane przez Digital Library Federation, w których przeprowadzono wywiady z 33 humanistami z uniwersytetów w Illinois.
3.
DLF Data Set, także finansowane przez Digital Library Federation. Badania prowadzono na drodze wywiadów pośród 239 naukowców i studentów uczelni akademickich w Stanach Zjednoczonych (East, 2005, s. 135).
RSLG Study wykazały, że w naukach humanistycznych i społecznych kładzie się duży nacisk na bezpośredni dostęp do bibliotek i ich kolekcji. Naukowcy traktują bibliotekę jako miejsce służące zarówno zgłębianiu kontekstu tematu badań, jak również – co ciekawe – dokonywaniu przypadkowych odkryć (serendipidity). Z badań tych wynika też, że konieczność wyjazdów celem poszukiwania źródeł i literatury nie ma większego wpływu na potrzebę fizycznego dostępu do materiałów. Zatem dostęp do szerokiej gamy dokumentów i innych obiektów służących badaniom ma duże znaczenie. Okazało się również, że respondenci w dużym stopniu korzystają z wypożyczeń międzybibliotecznych, a także z usług informacyjnych bibliotekarzy, często też zwracają się do publikacji cytowanych w aktualnie czytanych książkach lub artykułach (tzw. chaining). W obecnych czasach zdalnej dostępności do wielu materiałów wskazuje to na konieczność pokazywania humanistom innych dróg dostępu do zbiorów oraz kształcenia ich umiejętności związanych z odpowiednim wyborem repozytoriów i kolekcji dziedzinowych. Badania ujawniły również, że humaniści odczuwają potrzebę podwyższania swoich kompetencji w zakresie wykorzystywania specjalistycznych narzędzi bibliograficznych.
Z kolei w badaniach DLF wykazano, że przedstawiciele nauk humanistycznych w dużym zakresie korzystają też ze starszych materiałów, dlatego istotne dla nich znaczenie mają bazy bibliograficzne o dużym zasięgu chronologicznym. Ważne jest więc kształcenie ich umiejętności zarówno w zakresie strategii wyszukiwania informacji w bazach danych, jak i w odniesieniu do formułowania w nich zapytań informacyjnych. Co ciekawe, okazało się, że naukowcy z dziedzin humanistycznych często korzystali z kontaktów nieformalnych – w tym czasie z dyskusyjnych list mailingowych. Najważniejszymi jednak źródłami informacji były dla nich książki i czasopisma. Już w okresie, kiedy prowadzono badania DLF (2002 r.), około 25% takich materiałów było dostępnych online. Część z badaczy wykorzystywała też portale i serwisy internetowe (East, 2005, s. 135-140).
Z przedstawionych doniesień wynikają zalecenia dotyczące kierunków kształcenia umiejętności informacyjnych humanistów, które John East zaproponował. Szczególną uwagę zwrócił on na bardzo szczegółowe kształcenie w zakresie wyboru narzędzi i sposobów uzyskiwania materiałów do badań (umiejętności wyboru repozytoriów, katalogów, bibliografii itp. oraz umiejętności ich przeszukiwania). Uznał również, że ważna jest wiedza o narzędziach komunikacji nieformalnej, a równie istotne pokazanie roli bibliotekarzy jako osób bardzo pomocnych w poszukiwaniach materiałów do badań (Smith, 2003). Specyficzny zakres wymagań humanistów w zakresie pozyskiwania zasobów uwypukla potrzebę zwrócenia uwagi badaczom, jak i bibliotekarzom jako osobom, których rolą jest zapewnianie użytkownikom pomocy w poszukiwaniach, na szereg dodatkowych zagadnień. Chodzi przede wszystkim o świadomość roli informacji sygnalnej o nowościach wydawniczych, ułatwienia w zakresie bieżącego śledzenia zawartości czasopism, zapewnienia łatwego dostępu do zawartości prac zbiorowych, recenzji, prac doktorskich, informacji o lokalizacji materiałów niepublikowanych oraz potrzebnych zasobów cyfrowych (East, 2005, s. 140-141).
Podobną listę zaleceń dotyczących kształcenia kompetencji informacyjnych można sformułować na podstawie wyników badań humanistów z University of Malaya w Kuala Lumpur (Al Shboul, 2016, s. 297-299). Wyodrębniono w nim następujące potrzeby związane z zachowaniami informacyjnymi w tym obszarze nauki:
−
potrzeba bodźca (information event), który rozbudziłby potrzeby informacyjne; wśród przykładowych bodźców wymieniono: konferencje, niewidzialne uniwersytety, komunikację formalną i nieformalną, czytanie różnego typu tekstów;
−
potrzeba uzyskiwania informacji łatwo i tanio,
−
potrzeba przeglądania informacji (browsing),
−
potrzeba wiedzy o sposobach korzystania z dostępnych systemów informacyjnych,
−
potrzeba otrzymywania informacji w wybranym formacie i zrozumiałym języku oraz
−
potrzeba informacji odwołującej się do różnych motywacji.
Wymienione potrzeby stanowią punkt odniesienia dla projektowania systemów informacyjnych, ale pośrednio mówią również o kompetencjach informacyjnych respondentów i potrzebach edukacyjnych w tym zakresie.
W 2005 roku opublikowano wyniki badań porównawczych zachowań informacyjnych humanistów i przedstawicieli nauk społecznych prowadzonych w uczelniach akademickich w USA, m.in. w Uniwersytecie Waszyngtońskim i okolicznych uczelniach. Analizowano pięć najważniejszych zagadnień z tego zakresu: potrzeby informacyjne, wykorzystywane źródła informacji, sposoby wyszukiwania i zbierania informacji oraz zarządzanie informacją. Podstawowym założeniem przyjętym przez badaczy był iteracyjny model wyszukiwania informacji, tzw. berrypicking model, sformułowany przez Marcię Bates. Przy zbieraniu informacji do analizy bazowano na technice wywiadu i ankiety. Wywiady były oparte na dość rozbudowanym kwestionariuszu i zawierały 21 otwartych pytań, trwały od 30 do 60 minut. Objęły trzy osoby, w tym dwóch humanistów. Z kolei zwrotność ankiet wynosiła 26% – wysłano je do 62 naukowców, a otrzymano odpowiedzi od 16 osób, z czego 56% stanowili humaniści. Okazało się, że badani specjaliści bardzo często poszukiwali informacji interdyscyplinarnej bądź z innych dziedzin (np. humaniści szukali informacji o metodach badań społecznych). Naukowcy często podkreślali, że szukają autorytatywnych i uznanych w swojej dziedzinie źródeł informacji i często wracają do tych samych książek, czasopism, baz danych i in. Część z nich nie korzystała też ze źródeł internetowych, np. z Wikipedii czy też czasopism wydawanych tylko w formie elektronicznej, nie mając do nich zaufania. Jednak wśród badanych dość popularny jest Google Scholar oraz inne wyszukiwarki internetowe. Respondenci również często wymieniali się informacją poprzez kanały nieformalne. Nie korzystali natomiast z usług informacyjnych i pomocy świadczonej przez bibliotekarzy, czego powodem – w ich opinii – były stosunkowo proste zapytania informacyjne, zatem radzą sobie z wyszukiwaniem bez asysty. Założenie o iteracyjnym, złożonym z wielu różnych strategii modelu wyszukiwania informacji, potwierdziło się w badaniach. Naukowcy najczęściej łączyli przeszukiwanie baz danych i katalogów bibliotek z powtarzającą się kilkakrotnie techniką analizy cytowań prac w wybranych tytułach. Gromadzili też duże ilości zasobów i informacji. Sposoby zarządzania informacją były różne – od przechowywania dokumentów w wersji papierowej, poprzez tworzenie katalogów na dysku komputera i porządkowanie w nich plików, po wykorzystywanie menedżerów bibliografii. Z porównania zachowań informacyjnych humanistów i przedstawicieli nauk społecznych wynika, że badani wykorzystują te same sposoby wyszukiwania i przechowywania informacji, a główne różnice pomiędzy nimi stanowi większe wykorzystywanie źródeł pierwotnych, indywidualnego sposobu pracy i szerszego korzystania z biblioteki przez humanistów (Bass i in., 2005).
Marta Deyrup (2009), odwołując się do doświadczeń bibliotekarzy slawistów i z badaczami z obszaru slawistyki pracujących, zwróciła uwagę na problem braku dostosowania kształcenia w zakresie kompetencji informacyjnych do specyficznych potrzeb naukowców z różnych dyscyplin. Podobne spostrzeżenia dotyczące specyfiki zachowań informacyjnych – tym razem nauk teologicznych – opisywała Katharina Penner (2009). Zwróciła uwagę m.in. na różnicowanie strategii informacyjnych w zależności od etapu (jednego z trzech) realizowanych badań lub celu wyszukiwania. Badani przez nią wykładowcy seminarium luterańskiego w Chicago poza wszystkim cenili sobie samotność, odseparowanie od studentów, oraz nieformalną wymianę informacji (często wyżej lub zamiast poszukiwań bibliograficznych, zwłaszcza na początkowym etapie projektu). Respondenci nie stronili od zasobów i narzędzi sieciowych, dość wysoko oceniając swoje umiejętności posługiwania się słownictwem kontrolowanym, przy jednoczesnym braku świadomości zasad i kryteriów stosowanych przez wyszukiwarki. Cristina Kamposiori i Agiatis Bernadou (2011) wykazały, że historycy sztuki gromadzą własne (analogowe i cyfrowe) kolekcje źródeł pierwotnych i wtórnych, dla potrzeb konkretnych badań oraz według kryteriów przydatności i relewancji. Mniej chętnie niż inni badacze humanistyki dzielą się nieopublikowanymi treściami – być może dlatego, że trudniej im zebrać materiał badawczy.
Ciekawym przyczynkiem do poznawania umiejętności i zachowań informacyjnych humanistów była grupa badań przeprowadzona w związku z realizacją projektów DARIAH i EHRI, a dokładniej projektowania i budowania infrastruktury dla humanistyki cyfrowej. Wywiady i ankiety, jakie przeprowadzano (Benardou, Constantopoulos, Dallas, 2013; Benardou i in., 2010; Kamposiori, Benardou, 2011), potwierdziły niezmienność pewnych „tradycyjnych” (albo: „analogowych”) metod wyszukiwania, równolegle bądź przy pewnej adaptacji do nowych narzędzi i skali dostępności dokumentów. Popularne pozostaje m.in. rozpoczynanie wyszukiwania od użycia konkretnych nazw (nazwisk, miejsc, tytułów), śledzenie cytowań (chaining), poszukiwania intertekstualne, stała (wysoka) wartość dokumentu źródłowego i literatury przedmiotu. Jednocześnie humaniści coraz chętniej korzystają z wyników badań prowadzonych w innych obszarach, podejmując tematy czy wkraczając na pola interdyscyplinarne. Pewnym novum jest również częstsze korzystanie z możliwości przeglądania (browsing) zasobów i budowanie argumentacji na podstawie takiego wstępnego przeglądu, bez przeprowadzenia pełnego wyszukiwania (Benardou i in., 2010, s. 20).
Gromadzenie własnych kolekcji dokumentów (raczej niż danych) różnego typu (pierwotnych, wtórnych, pochodnych) jest wciąż cenione przez humanistów i ważne zwłaszcza na początkowym etapie badań (Kamposiori, Benardou, 2011), podobnie jak komunikacja nieformalna; tu przede wszystkim w procesie oceny jakości źródeł pod względem oryginalności, wartości poznawczej, dopasowania do ram czasowych, dostępności i jakości (Kamposiori, Benardou, 2011, s. 4).
Wpływ zasobów i infrastruktury cyfrowej na badania w humanistyce analizowali Max Kemman, Martijn Kleppe i Stef Scagliola (2014) na 288-osobowej grupie respondentów w Belgii i Holandii. Potwierdzili oni wyniki wcześniejszych projektów, mówiące o pierwszeństwie wyszukiwania tekstów i zdjęć, w przeciwieństwie do innych typów danych (np. zdigitalizowanych obiektów muzealnych, danych statystycznych, multimediów), a także o dominacji wyszukiwarki Google i JSTOR jako „narzędzia/miejsca pierwszego wyboru”. Zdecydowanie rzadziej respondenci odwiedzali profilowane kolekcje obiektów związanych z kulturą, takie jak Europeana, EUscreen, dziedzinowe bazy danych o różnym zasięgu geograficznym czy katalogi biblioteczne. W wyszukiwaniu badani używali przede wszystkim słów kluczowych, rzadko korzystali z opcji wyszukiwania zaawansowanego.
Badacze zwrócili uwagę na paradoks jednoczesnego podtrzymywania znaczenia proweniencji i kontekstu występowania informacji lub dokumentu i korzystania z wyszukiwarki Google, której algorytm działania pozostaje niejasny. Jak stwierdzili: „Oznacza to, że Google wprowadza swoistą «czarną skrzynkę» do naukowych praktyk cyfrowych, a badacze będą coraz bardziej zależni od takich nieznanych sobie algorytmów. Taka sytuacja wymaga przemyślenia zasad akademickich proweniencji i kontekstu” (Kemman, Kleppe, Scagliola, 2014, s. 16), zwłaszcza że algorytmy wyszukiwarek nie są neutralne, wpływają na wyniki wyszukiwania, a przez to na wyniki prowadzonych badań. Tym niemniej autorzy podsumowują uzyskane wyniki dotyczące preferencji wyszukiwawczych humanistów trzema słowami: Just Google it (Kemman, Kleppe, Scagliola, 2014, s. 16). Wyniki badań pokazują również, że w naukach humanistycznych, ścisłych i artystycznych występuje znacząca przewaga wykorzystania zasobów informacyjnych oferowanych przez stronę WWW biblioteki macierzystej uczelni oraz pomocy bibliotekarzy niż w przypadku nauk ekonomicznych. Zatem dobrym wstępem, stanowiącym wsparcie dla działań informacyjnych naukowców, jest dokładne zapoznawanie użytkowników z zasobami udostępnianymi elektronicznie przez macierzyste biblioteki uczelniane (Yong-Mi, 2010, s. 978-993).
Wśród przyczyn zaufania do wybieranych narzędzi i zasobów respondenci wymieniali jako najważniejsze wcześniejsze doświadczenia, własne próby, wreszcie autorytet (np. dostrzegana „w tle” wiedza ekspercka kojarzona z instytucją badawczą, biblioteką lub archiwum, wydawnictwem lub tytułem) (Kemman, Kleppe, Scagliola, 2014, s. 10). Wspomniana wyżej zasada proweniencji i kontekstu wydaje się nie do końca przekładać na środowisko wirtualne. O ile dziedzinowe bazy, repozytoria, katalogi itp. pozwalają się zorientować w jakości zbiorów, o tyle algorytmy stosowane przez Google są zbyt skomplikowane, co zdecydowanie utrudnia ocenę jakości uzyskanych wyników. Zasady te zaczynają więc „przegrywać” z wygodą użytkowania. W konsekwencji – jak sugerują cytowani autorzy – należałoby przyjąć, że humaniści zakładają wyszukiwalność każdej kolekcji (obiektu) przez Google, a jeżeli przeszukują odrębnie wybrane kolekcje, oczekują wyposażenia ich w wyszukiwarki o podobnych funkcjonalnościach (Kemman, Kleppe, Scagliola, 2014, s. 17). Nieuwzględnienie takich oczekiwań niesie za sobą konsekwencje utraty użytkowników na rzecz innych zasobów, nawet analogowych. Patrząc z innej perspektywy – paradoks „czarnej skrzynki” przy nadmiarze dostępnych informacji może powodować, że technologie cyfrowe zmienią przynajmniej część zasad przestrzeganych w badaniach realizowanych „analogowo”.
Suzana Sukovic (2011) roku zajęła się szczegółowo istotą korzystania z tekstów elektronicznych w projektach badawczych humanistów, zwłaszcza w obszarze historii i literaturoznawstwa. Opisała ona netchaining jako pewien wzorzec praktyk informacyjno-wyszukiwawczych w środowiskach elektronicznych. W tym kontekście respondenci za główne obszary wiedzy i umiejętności informacyjnych uznali: znajomość i korzystanie z baz danych, skuteczne wyszukiwanie, poprawną ocenę relewancji i wiarygodności wyszukanych źródeł oraz korzystanie z menedżera bibliograficznego (Sukovic, 2011, s. 196). Większość z nich nie oceniała wysoko swoich kompetencji informacyjnych, rozwijanych najczęściej samodzielnie metodą „prób i błędów”, w dość przypadkowy sposób, i dostrzegała wiele aspektów wymagających jeszcze szkolenia.
Tekstów (ściślej: książek) elektronicznych wykorzystywanych przez naukowców i studentów z dziedzin humanistycznych dotyczyły też badania przeprowadzone w 2015 roku przez Tinę Chrzastowski i Lynn Wiley. Prowadziły one badania ankietowe oraz analizę użytkowania platformy ebrary w porównaniu z korzystaniem z ich tradycyjnej postaci. Ankieta online objęła ok. 170 osób, z czego 73% to studenci, a 27% naukowcy. 80% respondentów to osoby poniżej 40 lat, a tylko 4% miało powyżej 60 lat. Okazało się, że 84% badanych korzystało z e-booków. Oczekiwali oni większej oferty specjalistycznych książek w tej formie oraz lepszej funkcjonalności czytników i oprogramowania. Sądzili też, że w przyszłości będą wykorzystywać e-booki. Z analiz dotyczących porównania wykorzystania książek elektronicznych i tradycyjnych wynika, że humaniści wybierali elektroniczną postać książek, nawet jeśli tradycyjna była dostępna. Z wniosków wyciągniętych w badaniach ciekawa jest też konstatacja, że łatwa dostępność do dużych zasobów książek, umożliwiająca łatwe ich przeglądanie, pozwala też na dokonywanie przypadkowych odkryć, a więc zachowuje funkcjonalność postrzeganą jako ważną przez badaczy z obszaru humanistyki (Chrzastowski, Lynn, 2015).
Kolejny obszar realizacji zachowań informacyjnych, wymagający specyficznych umiejętności, to aplikacje i zasoby mobilne dla badaczy. Problemem tym zajęli się Ciaran Trace i Unmil Kardakar (2017), przygotowując założenia wstępne dla projektu aplikacji pozwalającej na tworzenie prywatnych kolekcji cyfrowych wersji dokumentów niezbędnych w poszczególnych projektach. Skupili się na wymaganiach technicznych i oczekiwanych funkcjach (w tym: możliwościach gromadzenia, porządkowania, przetwarzania zbiorów, robienia notatek, tworzenia cytatów i pracy z menedżerami bibliograficznymi), tym niemniej tego typu projekty również sygnalizują zarówno pojawianie się coraz bardziej wyspecjalizowanych umiejętności korzystania z kolejnych narzędzi czy zasobów, jak też potrzeby szkoleniowe w tym zakresie i problemy związane z oceną kompetencji badaczy.
Niewątpliwie zbieranie, selekcja, porządkowanie i analiza materiałów to bardzo ważny element procesu badawczego. Obecnie – w sytuacji ogromnych ilości zasobów, przy szerszym niż w okresie przedcyfrowym dostępie do materiałów, ale o wiele bardziej zróżnicowanej strukturze narzędzi wyszukiwania zasobów i informacji – umiejętności informacyjne badacza są bardzo istotne. Wiedza o zachowaniach informacyjnych specjalistów różnych dziedzin jest ważna, gdyż pokazuje, w jakim kierunku powinny zmierzać działania związane z edukacją informacyjną. Jest to istotne zwłaszcza w kontekście edukacji i usług informacyjnych świadczonych przez biblioteki akademickie, a także w trakcie planowania szkoleń przez uczelnie dla swoich pracowników.
Wyniki przytoczonych powyżej badań, choć z pewnością stanowią niewielką część projektów dotyczących problematyki kompetencji, potrzeb i zachowań informacyjnych w obszarze humanistyki, stanowią pewną inspirację do wskazania problemów metodologicznych, jakie wiążą się z diagnozowaniem poziomu i zakresu kompetencji informacyjnych wybranej grupy naukowców.
Najważniejsze problemy metodologiczne diagnozowania kompetencji informacyjnych
Pierwszą kwestią wydaje się tu wspomniana na wstępie, faktyczna trudność rozdzielenia problematyki kompetencji, zachowań i potrzeb, a także świadomości informacyjnej. W warstwie definicyjnej kompetencje są jednym z elementów decydujących o realizacji konkretnych działań, takich jak: stwierdzanie istnienia potrzeby informacyjnej, wyszukiwanie, selekcja, gromadzenie. Drugim, leżącym po stronie użytkowników, jest świadomość informacyjna. Według Batorowskiej (2009, s. 73-74), to orientacja danej osoby lub grupy w zakresie funkcjonowania w świecie informacji. Na taką orientację składają się: wiedza – znajomość środowiska, jego elementów i realizowanych procesów, a także zasady i wartości ze środowiskiem informacyjnym związane. Uogólniając, można powiedzieć, że jest to „zdawanie sobie sprawy z istoty informacji, wielości i złożoności jej przejawów oraz procesów, którym podlega, zdolność umysłu do odzwierciedlania przestrzeni informacyjnej w całej jej różnorodności i dynamice” (Kisilowska, 2016, s. 97). Wobec tak silnych powiązań wewnątrz triady kompetencje – zachowania – świadomość, wydaje się niemożliwe rozdzielenie w badaniach zagadnień poświęconych wyłącznie poszczególnym jej elementom. Nie jest to oczywiście konieczne, natomiast wymaga uważności i czujności przy interpretacji wyników, zwłaszcza ewentualnym wnioskowaniu dotyczącym wspomnianych zależności.
Wśród innych wyzwań metodologicznych wskazać trzeba całą grupę tych związanych z doborem metod oraz konstruowaniem narzędzi badawczych. Widoczny wpływ na wyniki badań ma kształt narzędzia, w tym stosowana np. w kwestionariuszach ankiet terminologia. Narzędzia tego typu mogą stać się nieczytelne dla respondentów (a w konsekwencji nieużyteczne), jeśli ich projekt odzwierciedla bardziej punkt widzenia badacza niż badanego – czy to w sposobie ujęcia problematyki, czy używanych określeniach. W przypadku projektów dotyczących kompetencji i zachowań informacyjnych badacze napotykają również problemy wynikające z niezrozumienia stosowanych określeń, które z punktu widzenia ich specjalizacji czy też nieco idealizujących wyobrażeń o przygotowaniu informacyjnym pracowników nauki, wydają się zaskakujące i nieoczekiwane. Przykładowo chodzić może o wyrażenia takie, jak „strategia wyszukiwawcza” (a tym bardziej nazwy dla poszczególnych rodzajów tych strategii), narzędzia bibliograficzne, otwarty dostęp itp. Szybki rozwój możliwości przetwarzania informacji oraz komunikacji naukowej powodują, że pojawiają się wciąż nowe narzędzia, określenia i usługi informacyjne, z którymi większość środowiska nie zdążyła się najczęściej jeszcze zapoznać.
Warto zadać w tym miejscu pytanie o wybór metod – ilościowych bądź jakościowych – i narzędzi. Opisane powyżej pokrótce badania wykorzystywały metody mieszane, ilościowe i jakościowe, stosując najczęściej techniki wywiadu i ankiety (ankiety online). Takie podejście pozwala zarówno na nakreślenie ilościowego obrazu zachowań informacyjnych, jak i pozyskanie danych dotyczących np. motywacji, barier, wyzwań czy potrzeb szkoleniowych w odniesieniu do potrzeb informacyjnych. W kontekście działań diagnostycznych to właśnie pozyskiwane dane jakościowe pomagają szukać przyczyn określanego w efekcie badań ilościowych stanu umiejętności informacyjnych, wskazywać potrzeby edukacyjne czy projektować działania wspierające. Wywiad czy inne metody i techniki jakościowe wydają się więc potencjalnie bardziej efektywne w procesach diagnostycznych.
Konieczność szczególnej dbałości o zrozumiałość procesu i narzędzi badawczych wynikać może z nieświadomości niekompetencji u respondentów. Przytaczane wyżej badania, pokazujące m.in. ograniczenia poszukiwań literaturowych czy źródłowych do niezmiennie tych samych zasobów, świadczą pośrednio o takiej właśnie sytuacji. Ujawniana w ten sposób (w wyborach i zachowaniach informacyjnych) nieświadomość niekompetencji dla badacza z tego obszaru sama w sobie jest komunikatem.
Diagnozowanie kompetencji informacyjnych jest procesem silnie zależnym od charakterystyki badanego środowiska. Jak wspomniano na początku, specyfika pracy naukowej, w tym humanistycznej, w ogromnym stopniu zawierającej w sobie kolejne etapy działań informacyjnych, z pewnością jest obszarem ciekawym, wartym i potrzebującym badań kompetencyjnych. Daje szanse na postawienie nie tylko pytań podstawowych o zakres i skalę umiejętności, ale też tych bardziej szczegółowych, np. o motywacje podejmowania i wyboru strategii wyszukiwawczej, ocenę skuteczności i trwałości efektów kształcenia kompetencji informacyjnych, powody relatywnie niewielkiego zainteresowania ofertą szkoleniową tego typu. Im więcej takich pytań szczegółowych, tym więcej koniecznych rozstrzygnięć i wyborów dla badacza – jak optymalnie zaprojektować diagnozę kompetencji informacyjnych wybranej grupy?
Taka diagnoza jest ważna i ciekawa nie tylko z punktu widzenia badań podstawowych, lecz również – a może przede wszystkim – dla kształtowania i doskonalenia modeli kształcenia takich umiejętności. Jak wynika z przedstawionego wcześniej przeglądu rezultatów badań, jak również doświadczeń autorek artykułu, humaniści nie postrzegają swoich kompetencji informacyjnych jako szczególnie wysokich. Jest wiele obszarów, w których niewątpliwie profesjonalne wsparcie wysiłków związanych z realizacją procesów informacyjnych w badaniach bardzo by pomogło. To wsparcie to oczywiście szkolenia, pomoc biblioteki i bibliotekarza w wyszukiwaniach literatury i informacji, lecz również doskonalenie infrastruktury informacyjnej w sferze nauki. Najważniejsze z tych obszarów to umiejętności wyszukiwania materiałów oraz powiązane z tym kształtowanie świadomości informacyjnej – szczególnie skomplikowane w obecnej „erze cyfrowej” i „epoce Google” – a także kompetencje związane z zarządzaniem zgromadzonymi zasobami naukowymi, jak również z prezentacją informacji i wiedzy, zwłaszcza w dydaktyce akademickiej.
Realizacja wszystkich tych procesów jest szczególnie skomplikowana w badaniach humanistycznych bazujących na bardzo różnorodnych źródłach zarówno w przekroju chronologicznym, typu i formy dokumentu, jak i ich miejsca dostępu (np. archiwa, muzea). Przy wyszukiwaniu w sieci Internet na wszystkie te problemy nakłada się wspomniane już wcześniej ograniczenie związane z „bańką filtrującą”, zasobami w tzw. ukrytym Internecie i wiele innych.
Zakończenie
Powstaje pytanie – czy naukowcy, a szczególnie humaniści, mają rozwijać umiejętności informacyjne, szczególnie te związane z nowymi technologiami, samodzielnie, pozostać przy od lat stosowanych strategiach i ich nie zmieniać? Czy też potrzebne jest ukształtowanie na uczelniach oferty szkoleń kompetencji informacyjnych oraz działań związanych z rozwijaniem świadomości informacyjnej w kierunku większej otwartości dotyczącej stosowanych narzędzi wyszukiwania zasobów, technik zarządzania zgromadzonymi zbiorami, jak i praktyk publikacyjnych. W aktualnej sytuacji funkcjonowania polskich uczelni nie jest to pytanie bezzasadne, bowiem brakuje instytucjonalnego wsparcia pogłębiania kompetencji informacyjnych przez naukowców. Ukształtowanie modeli takich szkoleń i możliwości poszerzania umiejętności informacyjnych oraz praktyczne ich prowadzenie – prócz efektów dydaktycznych – byłoby dobrą okazją do diagnozowania w ramach omawianego obszaru badań.
Bibliografia
1.
Al Shboul, Mohammad K.I. (2016). Information needs and behaviour of humanities scholars in an ICT-enriched environment in Jordan. Kuala Lumpur: Unviersity of Malaya. Ph.D. thesis.
http://studentsrepo.um.edu.my/6401/2/Mohammad_Khaled_Final_Thesis.pdf (odczyt: 27.02.2017).
2.
Antonijević, Smiljana; Cahoy, Ellysa S. (2014). Personal library curation: an ethnographic study of scholars’ information practices. portal: Libraries and the Academy, vol. 14, issue 2, pp. 279-298.
3.
Bakewell, Elizabeth; Beeman, William O.; Reese, Carol McMichael; Schmitt, Marilyn (1988). Object, image, inquiry. The art historian at work. Getty Publications.
4.
Basili, Carla ed. (2008). Literacy at the crossroad of education and information policies in Europe. Rome: Consiglio Nazionale delle Ricerche.
5.
Bass, Abigail; Fairlee, Jill; Fox, Kara; Sullivan, Jennifer (2005). The information behavior of scholars in the humanities and social sciences. Students paper, Team 2. University of Washington. http://faculty.washington.edu/harryb/courses/LIS510/Assign_2/Team_2_Scholars.pdf (odczyt: 27.02.2017).
6.
Bates, Marcia J. (1996). The Getty end-user online searching project in the humanities: Report No 6: Overview and Conclusions. College & Research Libraries, vol. 57, issue 6, pp. 514-523.
7.
Bates, Marcia J.; Wilde, Deborah N.; Siegfried, Susan (1995). Research practices of humanities scholars in an online environment: The Getty Online Searching Project. Report No. 3. Library and Information Science Research, vol. 17, issue 1, p. 5-40.
8.
Batorowska, Hanna (2009). Kultura informacyjna w perspektywie zmian w edukacji. Warszawa: Wydawnictwo SBP.
9.
Batorowska, Hanna (2013). Information literacy i information culture w świetle literatury przedmiotu. Bibliotheca Nostra, vol. 1(31), s. 9-24.
10.
Benardou, Agiatis; Constantopoulos, Panos; Dallas, Costis (2013). An approach to analyzing working practices of research communities in the humanities. International Journal of Humanities and Arts Computing, vol. 7, issue 1-2, pp. 105-127.
11.
Benardou, Agiatis; Constantopoulos, Panos; Dallas, Costis; Gavrilis, Dimitris (2010). Understanding the information requirements of arts and humanities scholarship. International Journal of Digital Curation, vol. 5, issue 1, pp. 18-33. http://www.digitalclassicist.org/wip/wip2011-05ab.pdf (odczyt: 27.02.2017).
12.
Case, Donald O. (1991). Conceptual organization and retrieval of text by historians: The role of memory and metaphor. Journal of the American Society for Information Science, vol. 42, issue 9, pp. 657-668.
13.
Chrzastowski, Tina E.; Wiley, Lynn N. (2015). E-book use and value in the humanities: scholars’ practices and expectations. Library Resources and Technical Services, vol. 59, issue 4, pp. 172-86.
14.
Dalton, Margaret S.; Charnigo, Laurie (2004). Historians and their information sources. College & Research Libraries, vol. 65, issue 5, pp. 400-425.
15.
Deyrup, Marta M. (2009). Information literacy: discipline-specific or core competency? Slavic & East European Information Resources, vol. 10, issue 2, pp.185-199.
16.
East, John W. (2005). Information literacy for the humanities researcher: a syllabus based on information habits research. The Journal of Academic Librarianship, vol. 31, issue 2, pp. 134-142.
17.
Harris, Valerie; Hepburn, Peter (2013). Trends in image use by historians and the implications for librarians and archivists. College & Research Libraries, vol. 74, issue 3, pp. 272-287.
18.
Johnson, Catherine A.; Duff, Wendy M. (2004). Chatting up the archivist: social capital and the archival researcher. The American Archivist, vol. 67, pp. 113-129.
19.
Kachaluba, Sarah B., Brady, Jessica E., Critten, Jessica (2014). Developing humanities collections in the digital age: exploring humanities faculty engagement with electronic and print resources. College & Research Libraries, vol. 75, issue 1, pp. 91-108.
20.
Kamposiori, Cristina; Benardou, Agiatis (2011) Collaboration in art historical research: looking at primitives. Kunstgeschichte, Open Peer Reviewed Journal, (urn:nbn:de:bvb:355-kuge-157-1). http://www.kunstgeschichteejournal.net/157/ (odczyt: 27.02.2017)
21.
Kemman, Max; Kleppe, Martijn; Scagliola, Stef (2014). ‘Just Google it’. In: Clare Mills, Michael Pidd, Esther Ward eds. Proceedings of the Digital Humanities Congress 2012. Studies in the Digital Humanities. Sheffield: HRI Online Publications. http://www.hrionline.ac.uk/openbook/chapter/dhc2012-kemman (odczyt: 27.02.2017).
22.
Kisilowska, Małgorzata (2016). Kultura informacji. Warszawa: Wydawnictwo SBP.
23.
Mierzecka, Anna; Kisilowska, Małgorzata; Suminas, Andrius (ant. publ. date 2017), Researchers’ expectations regarding the online presence of academic libraries. College & Research Libraries (in print). Preprint: http://crl.acrl.org/index.php/crl/article/view/16621 (odczyt: 15.06.2017).
24.
Palmer, Carole L.; Teffeau, Lauren C.; Pirmann, Carrie M. (2009). Scholarly information practices in the online environment. Themes from the literature and implications for library service development. Dublin: OCLC Research.
25.
Penner, Katharina (2009). Information behaviours of theologians: a literature review. Theological Librarianship, vol. 2, issue 1, pp. 67-82.
26.
Puckett, Caleb (2010). Oh, the humanities: understanding information behavior to foster information literacy. Emporia State Research Studies, vol. 46, issue 2, pp. 33-43.
27.
Quan-Haase, Anabel; Kim, Martin (2011). Seeking knowledge: an exploratory study of the role of social networks in the adoption of ebooks by historians. Proceedings of the American Society for Information Science and Technology, vol. 48, issue 1, pp. 1-10.
28.
Reed, Bonnie; Tanner, Donald R. (2001). Information needs and library services for the fine arts faculty. The Journal of Academic Librarianship, vol. 27, issue 3, pp. 229-233.
29.
Reed, Marcia (1992). Navigator, mapmaker, stargazer: Charting the new electronic sources in art history. Library Trends, vol. 40, issue 4, pp. 733-755.
30.
Siegfried, Susan; Bates, Marcia J.; Wilde, Deborah N. (1993). A profile of end-user searching behavior by humanities scholars: The Getty Online Searching Project. Report no. 2. Journal of the American Society for Information Science, vol. 44, issue 5, pp. 273-291.
31.
Smith, Eleanor M. (2003). Developing an information skills curriculum for the sciences. Issues in Science and Technology Librarianship, Spring, DOI:10.5062/F48P5XGT. http://www.istl.org/03-Spring/article8.html (odczyt: 27.02.2017).
32.
Stone, Sue (1982). Humanities scholars: information needs and uses. Journal of Documentation, vol. 38, issue 4, p. 292-312.
33.
Sukovic, Suzana. (2011). E-texts in research projects in the humanities. Advances in librarianship. Emerald Group Publishing Limited, p 131-202.
34.
Tenopir, Carol (2014). Trust in reading, citing and publishing. Information Services & Use, issue 34, pp. 39-48.
35.
Tenopir, Carol; Wilson, Concepcion S.; Vakkari, Pertti; Talja, Sanna; King, Donald W. (2010). Cross country comparison of scholarly e-reading patterns in Australia, Finland, and the United States. Australian Academic & Research Libraries, vol. 41, issue 1, pp. 26-41.
36.
Tenopir, Carol; Volentine, Rachel; King, Donald W. (2012). Article and book reading patterns of scholars: findings for publishers. Learned Publishing, issue 25, pp. 279-291.
37.
Toms, Elaine G.; O’Brien, Heather L. (2008). Understanding the information and communication technology needs of the e-humanist. Journal of Documentation, vol. 64, issue 1, p. 102-130.
38.
Trace, Ciaran B.; Karadkar, Unmil P. (2017). Information management in the humanities: scholarly processes, tools, and the construction of personal collections. Journal of the Association for Information Science and Technology, vol. 68, issue 2, pp. 491-507.
39.
Warwick, Claire (2011). Studying users in digital humanities. In: Claire Warwick, Melissa Terras, Julianne Nzhan eds. Digital humanities in practice. Facet Publishing 2011.
40.
Wiberley, Stephen E. Jr.; Jones, William G. (1989). Patterns of information seeking in the humanities. College & Research Libraries, vol. 50, issue 6, p. 638-45.
41.
Yong-Mi, Kim (2010). The adoption of university library web site resources: a multigroup analysis. Journal of the American Society for Information Science and Technology, vol. 61, issue 5, pp. 978-993. DOI: 10.1002/asi.v61:5.
Sabina Cisek
Instytut Informacji Naukowej i Bibliotekoznawstwa,
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Diagnostyka kompetencji informacyjnych
w miejscu pracy – technika incydentów krytycznych
Diagnosis of workplace information literacy – the critical incident technique
Słowa kluczowe: CIT, diagnostyka, kompetencje informacyjne w miejscu pracy, technika incydentów krytycznych.
Keywords: CIT, critical incident technique, diagnostics, workplace information literacy.
Abstrakt
Artykuł przedstawia wybrane aspekty kompetencji informacyjnych w miejscu pracy (workplace information literacy) oraz jakościowej procedury badawczej zwanej techniką incydentów krytycznych (CIT), w perspektywie możliwości wykorzystania tej metody do diagnozowania wskazanych kompetencji. Na podstawie analizy i krytyki piśmiennictwa stwierdzono m.in., iż umiejętności informacyjne pożądane w środowisku pracy różnią się zasadniczo od tych, które są niezbędne w ramach edukacji formalnej, np. w trakcie studiów. Opisano także najważniejsze cechy CIT oraz zdefiniowano pojęcie zdarzenia krytycznego. Przedstawiono również argumenty na rzecz stosowania omawianej metody w diagnostyce kompetencji informacyjnych w środowisku zawodowym, w tym elastyczność i naturalistyczny, lokalny charakter.
Abstract
This paper depicts some selected aspects of workplace information literacy as well as a qualitative research procedure called critical incident technique (CIT), from the
perspective of using that method to study information competencies at work. It has been noted, based on a critical literature review, that information skills required in the
workplace context differ considerably from those needed within formal education systems (i.e. schools, universities). Also, the most important features of CIT have been described and the concept of the critical incident itself has been defined. In addition, a few
arguments for using the critical incident method to study workplace information literacy are given, including its flexibility and naturalistic, local nature.
Wprowadzenie
Artykuł poświęcony jest wybranym aspektom kompetencji informacyjnych w środowisku pracy (workplace information literacy, information literacy in the workplace; pokrewny termin stanowi business information literacy). Tekst powstał w oparciu o analizę i krytykę piśmiennictwa. Dzieli się na dwie zasadnicze części. Pierwsza poświęcona jest umiejętnościom informacyjnym w miejscu pracy jako takim, wskazuje również na ich niezbędność i kluczową rolę w dzisiejszej gospodarce opartej na wiedzy (Materska, 2007). Druga część dotyczy metody (techniki) incydentów krytycznych (critical incident technique, CIT) oraz argumentów na rzecz jej wykorzystania do diagnozowania kompetencji informacyjnych w środowisku pracy.
Ze względu na nieustaloną rodzimą terminologię w niektórych przypadkach podane są nazwy w języku angielskim. Terminy „kompetencje informacyjne” i „umiejętności informacyjne” oraz „kompetencje cyfrowe” i „umiejętności cyfrowe” są używane zamiennie, ze świadomością, że na ten temat toczy się wieloletnia już dyskusja (np. Kay, Ahmadpour, 2015; Van Dijk, 2012, s. 66-67).
Kompetencje informacyjne w miejscu pracy
Kompetencje informacyjne w miejscu pracy stanowią nurt działań i refleksji w obrębie wielowymiarowej dziedziny zwanej information literacy (edukacja informacyjna, kompetencje cyfrowe, kompetencje informacyjne, kultura informacyjna), której nie sposób tutaj przedstawić, nawet w zarysie. Problematyka information literacy jest bardzo obszerna, a literatura na jej temat wyjątkowa obfita, obejmująca publikacje naukowe, profesjonalne, a także różnego rodzaju deklaracje, standardy i wytyczne sporządzane przez różne podmioty. Do niej zatem należy odesłać zainteresowanego Czytelnika (zob. np. Jasiewicz, 2012, s. 85-126; Kay, Ahmadpour, 2015; Lloyd, 2017). Co ciekawe, w dokumencie, w którym po raz pierwszy w ogóle pojawia się termin information literacy, już jest mowa o umiejętnościach informacyjnych w środowisku pracy – „People trained in the application of information resources to their work can be called information literates. They have learned techniques and skills for utilizing the wide range of information tools as well as primary sources in molding information solutions to their problems” (Zurkowski, 1974, s. 6).
Szeroko rozumiane kompetencje informacyjne mają dwa aspekty: generyczny – minimum niezbędne każdemu człowiekowi oraz kontekstowy, obecnie eksponowany. Niektórzy badacze twierdzą wręcz, że poszukiwanie uniwersalnych kompetencji informacyjnych, niezwiązanych z określonym środowiskiem społecznym, sytuacją danego użytkownika itp. właściwie nie ma sensu (Jasiewicz i in., 2015; Lloyd, 2010). Information literacy ujmuje się zatem w kontekście edukacji (formalnej i nie) – tu dorobek jest największy, życia codziennego oraz działalności gospodarczej i pracy. Ten ostatni aspekt cieszy się obecnie rosnącym zainteresowaniem badaczy i praktyków (Head, 2017). Dla ilustracji – proste wyszukiwanie w Google Scholar za pomocą frazy „workplace information literacy” przynosi 377 wyników, baza LISTA (Library, Information Science and Technology Abstracts, EBSCO) przy kwerendzie „workplace AND information literacy” oferuje 184 rekordy, natomiast adnotowana bibliografia selektywna Information Literacy in the Workplace (Williams, Cooper, Wavell, 2014) rejestruje 41 publikacji anglojęzycznych. W kwietniu 2017 roku ukazała się także książka na ten temat (Forster ed., 2017). W polskim piśmiennictwie również ta kwestia jest podejmowana, często pod szyldem „kompetencji cyfrowych” (np. Buchner, Zaniewska, 2016a; 2016b). W działania w tym zakresie włączyło się nawet Google, w ramach akcji Internetowe Rewolucje (https://lear
ndigital.withgoogle.com/internetowerewolucje).
Przewidziana na rok 2017 ogólnoświatowa (wbrew nazwie) konferencja odbywająca się w ramach najważniejszego w tym obszarze cyklu ECIL (European Conference on Information Literacy) nosi właśnie tytuł Workplace Information Literacy. Annemaree Lloyd, jedna z czołowych badaczek, twierdzi wręcz, że kompetencje informacyjne w miejscu pracy to obecnie najważniejszy kierunek; dlatego, że wiąże się z przygotowaniem (przyszłych) pracowników, potrafiących zrozumieć, że informacja (jej tworzenie, reprodukcja, obieg i rozpowszechnianie) odgrywa wiodącą rolę w efektywnej, przynoszącej sukces – i jednocześnie „zrównoważonej” – pracy (Lloyd, 2011). Bonnie Cheuk z kolei sądzi, że nowoczesne środowisko pracy wymaga zatrudnionych, którzy są nie tylko kompetentni w zakresie wykorzystania informacji do osiągania celów biznesowych, ale również wykazują w tym kontekście pewność siebie (Cheuk, 2008, s. 137).
Działania we wskazanym zakresie podejmują zarówno „stare” stowarzyszenia bibliotekarzy i profesjonalistów informacji, jak amerykańska ALA (American Library Association) (Information literacy, 2017) i brytyjski CILIP (Chartered Institute of Library and Information Professionals) (Goldstein, 2016, s. 89), jak i nowo powstałe podmioty, np. InformAll (https://www.informall.org.uk/). Działalność tej ostatniej organizacji jest szczególnie interesująca, ponieważ w jej projektach i publikacjach widać starania, by w badania i wdrożenia związane z kompetencjami informacyjnymi w miejscu pracy angażować – i uwzględniać punkt widzenia – nie tylko przedstawicieli środowisk bibliotekarskich i informacyjnych, ale również pracodawców i pracowników z różnych branż gospodarki. Podobne podejście widoczne jest zresztą także w wielu najnowszych publikacjach (np. Collard i in., 2016; Goldstein, 2016; Zorica, Špiranec, Bušelić, 2016).
Co oznacza termin workplace information literacy? Jaką wiedzę, umiejętności i postawy obejmuje? W ogólnym sformułowaniu jest to zdolność pracowników – na różnych stanowiskach – do efektywnego lokalizowania, oceny, organizacji i wykorzystania informacji, a także jej tworzenia, „opakowania” i prezentowania właściwym odbiorcom. Innymi słowy, stanowi zbiór umiejętności w zakresie interakcji z informacją, tam, gdzie jest to potrzebne do działań biznesowych, wykonywania zadań albo rozwiązywania problemów zawodowych (np. Goldstein, 2016, s. 95). Podkreśla się także, że w kontekście pracy, np. przedsiębiorstwa ważny jest nie tylko „zwykły”, indywidualny wymiar kompetencji informacyjnych, ale również – zespołowy oraz organizacyjny (Bruce, 1999; Collard i in., 2016). Zresztą, nowoczesne podejście do definiowania kompetencji informacyjnych w ogóle, promowane m.in. przez cytowaną już Lloyd, również odchodzi od utożsamiania information literacy z listą „technicznych” niemal umiejętności jednostki, przeciwnie – eksponuje się ich kompleksową, społeczną naturę i uwarunkowania oraz łączy z doskonaleniem „krajobrazu” informacyjnego. Kompetencje informacyjne (cyfrowe, medialne) są podstawą uczenia się i „radzenia sobie” w pracy – zarówno indywidualnego, jak i organizacyjnego – a jest to niezbędne w dzisiejszej, szybko zmieniającej się, opartej na wiedzy gospodarce (Lloyd, 2011).
Autorzy zgodnie twierdzą, że kompetencje informacyjne w miejscu pracy – i oczekiwania pracodawców w tym zakresie – różnią się od tych potrzebnych do ukończenia szkoły czy studiów. Dzieje się tak, ponieważ środowisko pracy ma inną „specyfikę informacyjną” niż sektor edukacyjny, gdzie obowiązują ustalone programy, reguły i wymagania, m.in.:
−
jest bardziej chaotyczne, nieuporządkowane, zmienne;
−
potrzeby i zachowania informacyjne wiążą się z nieprzewidywalnymi wyzwaniami biznesowymi, są mniej ustrukturyzowane;
−
ważny jest przede wszystkim sukces przedsiębiorstwa – a nie indywidualny jak w edukacji, co wiąże się z naciskiem na pracę grupową;
−
w o wiele większym stopniu wykorzystywane są źródła osobowe i nieformalne kanały (a nie źródła dokumentalne i sformalizowane systemy informacyjno-wyszukiwawcze) (Goldstein, 2016; Head, 2017; Lloyd, 2011; Weiner, 2011).
Pracodawcy raczej nie używają explicite terminu „kompetencje informacyjne” (jeżeli już – to „cyfrowe”), de facto jednak oczekują zawansowanych umiejętności w tym zakresie (Head i in., 2013). Mówią jednakże o innych elementach, dla których information literacy jest niezbędną podstawą. Są to m.in.: elastyczność (zdolność do zmiany i przystosowania się), praca zespołowa, planowanie i organizacja, rozwiązywanie problemów, sprawna komunikacja w mowie i piśmie, „świadomość biznesowa”, ustawiczne uczenie się, wiedza o klientach, wykorzystanie technologii informacyjnych, zarządzanie czasem, zarządzanie własną karierą (Goldstein, 2016; Weiner, 2011; Workforce IL, 2017; Zorica, Špiranec, Bušelić, 2016). Poza tym, jak okazało się w wyniku interesujących badań Alison Head i współpracowników, pracodawcy cenią (a zatrudniani absolwenci często nie posiadają) takie postawy i umiejętności informacyjne, jak:
−
angażowanie członków zespołu do poszukiwania przydatnych informacji, wykorzystywanie wiedzy współpracowników,
−
pozyskiwanie informacji z różnych źródeł (dokumentacja firmowa, eksperci, specjalistyczne bazy danych itp.), nie tylko z internetu,
−
interpretacja informacji, identyfikowanie powiązań, odnajdywanie wzorców,
−
staranne i dogłębne pozyskiwanie informacji czy eksplorowanie problemów (a nie szybkie i pobieżne) (Head i in., 2013, s. 87-89, 97-98).
Dorothy Williams i współautorki określają trzy zasadnicze typy kompetencji informacyjnych w środowisku pracy:
−
nieformalne, kontekstowe, społeczne przetwarzanie informacji – umiejętność nauczenia się i zarządzania informacją specyficzną dla określonego, konkretnego przedsiębiorstwa (organizacji); zdolność do zrozumienia (i spożytkowania) interakcji społecznych zachodzących w tym środowisku, mających wpływ na dzielenie się i wykorzystanie informacji;
−
transformacja informacji w wiedzę – takie „posługiwanie się” informacją, które przyczynia się do wzrostu wiedzy organizacyjnej;
−
kreowanie, „pakowanie” i organizacja informacji – informacja w środowisku pracy bywa słabo ustrukturyzowana, nieuporządkowana, tym bardziej istotna więc jest umiejętność porządkowania i zarządzania danymi różnego typu (Williams, Cooper, Wavell, 2014).
Natomiast w kontekście pracy zespołowej albo kolektywnego wymiaru kompetencji informacyjnych wskazuje się następujące przydatne umiejętności: dzielenie się zbiorem dokumentów, organizowanie przestrzeni na potrzeby współpracy, planowanie spotkań i aktywności grupy, podejmowanie kolektywnych decyzji, synchroniczna praca na odległość, wykorzystywanie współpracowników do znajdowania informacji, zarządzanie „przychodzącą” i „wychodzącą” informacją, zespołowe tworzenie dokumentów i treści (Collard i in., 2016, s. 83).
Christine Bruce, autorka wpływowej koncepcji seven faces of information literacy wiąże siedem sposobów doświadczania kompetencji informacyjnych z następującymi procesami i zjawiskami zachodzącymi w firmach (albo szerzej – w organizacjach): skanowanie otoczenia (wykorzystywanie technologii informacyjnej); praca z zewnętrznymi i własnymi usługami i zasobami informacji (znajomość źródeł informacji); przetwarzanie informacji, przygotowanie jej do wewnętrznego lub zewnętrznego użytku (sterowanie procesami informacyjnymi); zarządzanie dokumentami, ich archiwizacja (kontrola informacji); pamięć korporacyjna (organizacja wiedzy); badania i rozwój (tworzenie nowej wiedzy); etyka zawodowa (mądrość) (Bruce, 1999, s. 43).
W polskim Katalogu kompetencji cyfrowych małych firm stwierdzono, że wdrożenie i rozwój umiejętności informacyjnych w przedsiębiorstwie ostatecznie prowadzi do trzech – jak to nazwano – meta-korzyści: oszczędności czasu, pieniędzy oraz wypracowania zysków (Buchner, Zaniewska, 2016a, s. 13). Ponieważ przedsiębiorstwa różnią się od siebie i działają w odmiennych warunkach nie istnieje „jedynie słuszny” wykaz kompetencji informacyjnych niezbędnych w każdym miejscu pracy. Na rzecz należy zatem patrzeć funkcjonalnie – przez pryzmat aktywności danej organizacji, dla realizacji których kompetencje cyfrowe są przydatne. Takich aktywności wskazano sześć – prowadzenie firmy, rynek i konkurencja, produkt lub usługa, klienci, komunikacja i promocja, sprzedaż, pokazując jednocześnie konkretne korzyści, które w tych obszarach przynoszą e-kompetencje (Buchner, Zaniewska, 2016a; 2016b).
Technika incydentów krytycznych (CIT)
Jak już powiedziano, kompetencje informacyjne są istotne, czasami wręcz kluczowe dla funkcjonowania przedsiębiorstw i innych organizacji w XXI wieku, z różnych względów (Buchner, Zaniewska, 2016a; 2016b; Weiner, 2011). Warto zatem je diagnozować – rozpoznać, ocenić i na tej podstawie sformułować zalecenia mające na celu ich doskonalenie, rozwój, a w ostatecznym efekcie – usprawnienie funkcjonowania danej organizacji i korzyści temu towarzyszące.
Istnieje wiele sposobów diagnozowania information literacy, stworzono także liczne, stosunkowo precyzyjne narzędzia temu służące (zob. np. Batorowska, 2015; Mueller, 2014). Zdecydowana większość z nich dotyczy jednak poziomu umiejętności informacyjnych uczniów (np. TRAILS, 2017) albo studentów (np. SAILS, 2017) i skojarzona jest z edukacją formalną. Natomiast jednym z narzędzi dedykowanych badaniu workplace information literacy jest DeVIL – Determining the Value of Information Literacy, opracowany w InformAll (IL value, 2017).
Celem tego artykułu nie jest jednak przygotowanie zestandaryzowanego instrumentu do pomiaru kompetencji informacyjnych w miejscu pracy, chociaż narzędzie takie byłoby skądinąd pożyteczne, lecz zaproponowanie interesującej metody badawczej, przydatnej w omawianym zakresie. Stanowi ją – wspomniana w tytule – technika incydentów (zdarzeń) krytycznych, zwana w literaturze również analizą, metodą lub podejściem (Butterfield i in., 2005).
Twórcą CIT jest znany amerykański psycholog John C. Flanagan, który opisał tę procedurę w roku 1954, w nadal często cytowanym artykule (Flanagan, 1954). Przez następne kilkadziesiąt lat technika zdarzeń krytycznych znalazła szerokie zastosowanie również poza psychologią (w tym w naukach humanistycznych i społecznych), m.in. w biznesie, edukacji, marketingu, medycynie, naukach o komunikacji, pielęgniarstwie, socjologii, uczeniu się organizacyjnym, wojskowości, zarządzaniu, a także w informatologii (zob. np. opublikowany też w niniejszej książce artykuł Anety Januszko-Szakiel i Palomy Korycińskiej pt. Ocena komunikacji przekrojowej jako składnik audytu komunikacyjnego w przedsiębiorstwie wdrażającym innowacje), w tym do badania information literacy i zachowań informacyjnych (Cisek, 2016; Hughes, 2007; Urquhart i in., 2003). Jest powszechnie uważana za procedurę elastyczną, którą można modyfikować w kontekście konkretnych problemów poznawczych; uczeni proponowali jej różne udoskonalenia i warianty (np. Hughes, 2012). Co ważne z punktu widzenia niniejszych rozważań, jest szczególnie przydatna do badania jakości usług oraz zagadnień związanych z pracą i pracownikami (ocena, wymagania związane z jakimś zawodem, wynagradzanie, zarządzanie kompetencjami) (Butterfield i in., 2005; Dziadkowiec, 2006, s. 29-31).
Generalnie CIT stanowi indukcyjną, jakościową procedurę poznawczą; aczkolwiek może włączać też elementy ilościowe i w efekcie funkcjonować w ramach metodologii mieszanej. Służy do identyfikacji i (behawioralnego) opisu postaw i zachowań ludzi w różnych okolicznościach, np. dobrych i złych praktyk przy realizacji pewnych zadań albo umiejętności niezbędnych do efektywnego wykonywania jakiejś pracy. Może też przyczynić się – idąc „głębiej” – do ustalenia prawidłowości oraz uwarunkowań rządzących ludzkimi działaniami i właściwościami (Borgen, Amundson, Butterfield, 2008; Flanagan, 1954).
Incydent krytyczny z kolei jest to pojedyncza aktywność lub wydarzenie (event, instance; fakt, sytuacja), które:
−
da się odróżnić; stanowi odrębny epizod;
−
znacząco wpływa na jakieś szersze działanie, proces, zjawisko, kształtując czyjeś osiągnięcia, postawy oraz przyczyniając się do sukcesu lub porażki jednostki albo organizacji;
−
zostało zapamiętane, a dokładniej – zapada w pamięć (memorable);
−
jest obserwowalne, poddaje się badaniu.
Nie oznacza to, że zdarzenia krytyczne muszą być dramatyczne lub niezwykłe (Flanagan, 1954, s. 338-339; Hughes, 2007; Schluter, Seaton, Chaboyer, 2008, s. 108). Przykładem incydentu krytycznego może być ostatnie (albo najlepiej zapamiętane) zadanie na studiach lub w pracy, które wymagało poszukiwania i wykorzystania informacji (m.in. Hughes, 2012).
Wyróżnia się pięć etapów metody zdarzeń krytycznych. Są to:
1.
Określenie celu dociekań i problemu poznawczego.
2.
Operacjonalizacja, opracowanie szczegółowego planu badań, w tym dobór respondentów i próby badawczej (której liczebność determinuje zbiór incydentów – a nie respondentów) oraz określenie jakiego typu zdarzeniami mają być incydenty krytyczne.
3.
Zbieranie danych empirycznych, czyli (pisemnych bądź ustnych) sprawozdań (deskrypcji, opowieści) z interesujących nas zdarzeń krytycznych. Materiał empiryczny jest gromadzony z reguły za pomocą wywiadu indywidualnego, ale też ankiet, esejów pisanych przez respondentów, obserwacji (bezpośredniej, uczestniczącej) oraz wywiadu grupowego. Ponieważ intencją współczesnych dociekań wykorzystujących CIT jest poznanie zdarzeń i zachowań tak jak są postrzegane przez badanych, preferowany jest wywiad częściowo ustrukturyzowany, jakościowy, otwarty. Celem jest zebranie opowieści „z pierwszej ręki” o tym, co działo się w konkretnej sytuacji. Często prosi się respondentów o przypomnienie sobie i dokładny opis najnowszego incydentu z kategorii tych, które bierzemy pod uwagę w danym projekcie. Nie interesują nas natomiast interpretacje, opinie, uogólnienia, wnioski, które mogliby ewentualnie sformułować badani – lecz szczegółowe, „obiektywne” deskrypcje jednostkowych epizodów, „krok po kroku”.
4.
Analiza materiału empirycznego. Może odbywać się na różne sposoby w zależności od przyjętych ram teoretycznych (analiza statystyczna, tematyczna, zawartości, ciągła analiza porównawcza itd.). Obowiązkowym elementem jest indukcyjna kategoryzacja (grupowanie) zdarzeń krytycznych, np. wedle podobieństw w nich występujących. W efekcie otrzymujemy m.in. zestawienie sytuacji i zachowań, w związku z którymi coś się nie udało, nastąpiła porażka (incydenty negatywne), jak i tych, którym towarzyszył sukces (incydenty pozytywne).
5.
Interpretacja danych i raportowanie rezultatów (Borgen, Amundson, Butterfield, 2008; Butterfield i in., 2005; Cisek, 2016; Schluter, Seaton, Chaboyer, 2008).
Dlaczego technika incydentów krytycznych nadaje się do diagnozowania kompetencji informacyjnych w miejscu pracy? Po pierwsze, pozwala rozpoznać, skategoryzować i przeanalizować zachowania informacyjne zatrudnionych w konkretnych sytuacjach zawodowych, przy wykonywaniu autentycznych zadań. Opiera się na rzeczywistych doświadczeniach pracowników, które można zaobserwować, albo o których mówią własnymi słowami, z ich punktu widzenia, posługując się terminami występującymi w praktyce. Umożliwia to identyfikację faktycznie podejmowanych czynności oraz ich pozytywnych bądź negatywnych rezultatów, a w efekcie stwierdzenie, jakie zachowania są skuteczne dla zaspokojenia potrzeb informacyjnych (i w konsekwencji dla realizacji celów organizacji), a jakie – nie. Innymi słowy – CIT pozwala uchwycić kompetencje informacyjne „w akcji” oraz w kontekście ich przydatności, nie – ogólnej, wyabstrahowanej, ale w danym przedsiębiorstwie bądź instytucji.
Po drugie, jak już wspomniano, metoda zdarzeń krytycznych jest elastyczna, można ją dostosować – pod względem wielkości próby, czasu badań, sposobu gromadzenia materiału empirycznego itd. – do lokalnej specyfiki, potrzeb i problemów swoistych dla wybranego podmiotu gospodarczego.
Po trzecie wreszcie, CIT ma charakter jakościowy, badania odbywają się w naturalnym środowisku respondentów, są „zakorzenione” w konkretnym miejscu, dlatego praktyczne wdrożenie ich wyników, wniosków i zaleceń jest ułatwione (Cisek, 2013). Takie zalecenia mogą, na przykład, wskazywać na potrzebę szkoleń w zakresie information literacy albo na konieczność zmian organizacyjnych, dzięki którym posiadane już przez pracowników umiejętności informacyjne byłyby lepiej wykorzystane.
Zakończenie
Zarówno zagadnienie workplace information literacy, jak i cechy techniki incydentów krytycznych zostały w niniejszym tekście jedynie zarysowane, więcej wiadomości znajduje się m.in. w przywoływanej literaturze przedmiotu. Na zakończenie warto podkreślić, że kompetencje informacyjne w miejscu pracy można i należy diagnozować a następnie doskonalić i efektywnie wykorzystywać, ponieważ mają rosnące znaczenie dla funkcjonowania podmiotów różnego typu, w każdym z sektorów gospodarki.
Bibliografia
1.
Batorowska, Hanna (2015). Wybrane narzędzia badawcze do ewaluacji poziomu kultury informacyjnej jednostki. PTINT Praktyka i Teoria Informacji Naukowej i Technicznej, t. XXIII, nr 2-3, s. 3-12.
2.
Borgen, William A., Amundson, Norman E.; Butterfield, Lee D. (2008). Critical incident technique. In: Lisa M. Given ed. The Sage encyclopedia of qualitative research methods, vol. 1 & 2. Thousand Oaks, California: SAGE Publications, Inc., pp. 158-159.
3.
Bruce, Christine S. (1999). Workplace experiences of information literacy. International Journal of Information Management, vol. 19, issue 1, pp. 33-47.
4.
Buchner, Anna; Zaniewska, Katarzyna (2016a). Katalog kompetencji cyfrowych małych firm. Warszawa: Centrum Cyfrowe. Projekt: Polska. https://centrumcyfrowe.pl/wp-content/uploads/2016/03/IR-katalog-kompetencji.pdf (odczyt: 09.06.2017).
5.
Buchner, Anna; Zaniewska, Katarzyna (2016b). Katalog kompetencji cyfrowych małych firm. Raport z badań. Warszawa: Centrum Cyfrowe. Projekt: Polska. https://centrumcyfrowe.pl/wp-content/uploads/2016/03/IR-raport-badawczy.pdf (odczyt: 09.06.2017).
6.
Butterfield, Lee D.; Borgen, William A.; Amundson, Norman E.; Maglio, Asa-Sophia T.2005). Fifty years of the critical incident technique: 1954–2004 and beyond. Qualitative Research, vol. 5, issue 4, pp. 475-497.
7.
Cisek, Sabina (2013). Metodologia jakościowa we współczesnej informatologii. Wybrane aspekty. Przegląd Biblioteczny, R. 81, z. 3, s. 299-310.
8.
Cisek, Sabina (2016). Critical incident technique in information literacy research in the XXI Century. http://www.academia.edu/29325512/Critical_Incident_Technique_in_Information_Literacy_Research_in_the_XXI_Century (odczyt: 19.06.2017).
9.
Collard, Anne-Sophie; De Smedt, Thierry; Fastrez, Pierre; Ligurgo, Valeria; Philippette, Thibault (2016). How is information literacy related to social competences in the workplace? In: Serap Kurbanoglu, Joumana Boustany, Sonja Špiranec, Esther Grassian, Diane Mizrachi, Loriene Roy, Tolga Çakmak eds. Information literacy: key to an inclusive society. 4th European Conference, ECIL 2016, Prague, Czech Republic, October 10-13, 2016. Revised selected papers. Cham, Switzerland: Springer, pp. 79-88.
10.
Dziadkowiec, Joanna (2006). Wybrane metody badania i oceny jakości usług. Zeszyty Naukowe Akademii Ekonomicznej w Krakowie, nr 717, s. 23-35.
11.
Flanagan, John C. (1954). The critical incident technique. Psychological Bulletin, vol. 51, issue 4, pp. 327-358.
12.
Forster, Marc ed. (2017). Information literacy in the workplace. London: Facet Publishing.
13.
Goldstein, Stephane (2016). Information literacy and graduate employability. In: Serap Kurbanoglu, Joumana Boustany, Sonja Špiranec, Esther Grassian, Diane Mizrachi, Loriene Roy, Tolga Çakmak eds. Information literacy: key to an inclusive society. 4th European Conference, ECIL 2016, Prague, Czech Republic, October 10-13, 2016. Revised selected papers. Cham, Switzerland: Springer, pp. 89-98.
14.
Head, Alison J. (2017). Posing the million-dollar question: What happens after graduation? Journal of Information Literacy, vol. 11, issue 1, pp. 80-90. http://dx.doi.org/10.11645/11.1.2186 (odczyt: 12.06.2017).
15.
Head, Alison J.; Van Hoeck, Michele; Eschler, Jordan; Fullerton, Sean (2013). What information competencies matter in today’s workplace? Library and Information Research, vol. 37, issue 114, pp. 74-104.
16.
Hughes, Hilary (2007). Critical incident technique. In: Suzanne Lipu, Kirsty Williamson, Annemaree Lloyd eds. Exploring methods in information literacy research. Wagga Wagga, N.S.W.: Centre for Information Studies, Charles Sturt University, pp. 49-66.
17.
Hughes, Hilary (2012). An expanded critical incident approach for exploring information use and learning. Library and Information Research, vol. 37, issue 112, pp. 72-95.
18.
IL value. The value of information literacy to employers (2017). InformAll. https://www.informall.org.uk/employment/il-value/ (odczyt: 21.06.2017).
19.
Information literacy in the workplace (2017). ALA. http://www.ala.org/news/member-news/2017/04/information-literacy-workplace (odczyt: 09.06.2017).
20.
Jasiewicz, Justyna (2012). Kompetencje informacyjne młodzieży. Warszawa: Wydawnictwo SBP.
21.
Jasiewicz, Justyna; Filiciak, Mirosław; Mierzecka, Anna; Śliwowski, Kamil; Klimczuk, Andrzej; Kisilowska, Małgorzata; Tarkowski, Alek; Zadrożny Jacek (2015). Ramowy katalog kompetencji cyfrowych. Warszawa: Centrum Cyfrowe Projekt: Polska. https://cppc.gov.pl/wp-content/uploads/zal.-13-Ramowy_katalog_kompetencji_cyfrowych.pdf (odczyt: 12.06.2017).
22.
Kay, Robin H., Ahmadpour, Kamran (2015). Negotiating the digital maze of information literacy: a review of literature. Journal of Educational Informatics, issue 1, pp. 1-25.
23.
Lloyd, Annemaree (2010). Information literacy landscapes. Information literacy in education, workplace and everyday contexts. Oxford, Cambridge, New Delhi: Chandos Publishing.
24.
Lloyd, Annemaree (2011). Trapped between a rock and a hard place: what counts as information literacy in the workplace and how is it conceptualized? Library Trends, vol. 60, issue 2, pp. 277–296.
25.
Lloyd, Annemaree (2017). Information literacy and literacies of information: a mid-range theory and model. Journal of Information Literacy, vol. 11, issue 1, pp. 91-105. http://dx.doi.org/10.11645/11.1.2185 (odczyt: 12.06.2017).
26.
Materska, Katarzyna (2007). Informacja w organizacjach społeczeństwa wiedzy. Warszawa: Wydawnictwo SBP.
27.
Mueller, Jon (2014). Assessments of information literacy available online. http://jfmueller.faculty.noctrl.edu/infolitassessments.htm (odczyt: 12.06.2017).
28.
SAILS. Standardized Assessment of Information Literacy Skills (2017). https://www.projectsails.org/ (odczyt: 12.06.2017).
29.
Schluter, Jessica; Seaton, Philippa; Chaboyer, Wendy (2008). Critical incident technique: a user’s guide for nurse researchers. Journal of Advanced Nursing, vol. 61, issue 1, pp. 107-114.
30.
TRAILS. Tools for Real-time Assessment of Information Literacy Skills (2017). http://www.trails-9.org (odczyt: 12.06.2017).
31.
Urquhart, Christine; Light, Ann; Thomas, Rhian; Barker, Anne; Yeoman, Alison; Cooper, Jan; Armstrong, Chris; Fenton, Roger; Lonsdale, Ray; Spink, Sian 2003). Critical incident technique and explicitation interviewing in studies of information behavior. Library and Information Science Research, vol. 25, issue 1, p. 63-88.
32.
Van Dijk, Jan A. G. M. (2012). The evolution of the digital divide. The digital divide turns to inequality of skills and usage.
https://www.utwente.nl/en/bms/vandijk/news/The%20Evolution%20of%20the%20Digital%20Divide/Evolution%20of%20the%20Digital%20Divide%20Digital%20Enlightment%20Yearbook%202012.pdf (odczyt: 13.07.2017).
33.
Weiner, Sharon A. (2011). Information literacy and the workforce: a review. http://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1015&context=lib_fsdocs (odczyt: 12.06.2017).
34.
Williams, Dorothy; Cooper, Katie; Wavell, Caroline (2014). Information literacy in the workplace. An annotated bibliography. Aberdeen: Robert Gordon University Institute for Management, Governance & Society (IMaGeS), InformAll.
https://www.informall.org.uk/wp-content/uploads/2015/11/Workplace-IL-annotated-bibliography.pdf (odczyt: 09.06.2017).
35.
Workforce IL (2017). https://www.informall.org.uk/webinars/workforce-il-webinar/ (odczyt: 11.06.2017).
36.
Zorica, Mihaela Banek; Špiranec, Sonja; Bušelić, Vjeran (2016). Are we speaking the same language? Croatian employers’ IL competency requirements for prospective employees. In: Serap Kurbanoglu, Joumana Boustany, Sonja Špiranec, Esther Grassian, Diane Mizrachi, Loriene Roy, Tolga Çakmak eds. Information literacy: key to an inclusive society. 4th European Conference, ECIL 2016, Prague, Czech Republic, October 10-13, 2016. Revised selected papers. Cham, Switzerland: Springer, pp. 99-108.
37.
Zurkowski, Paul (1974). The information service environment relationships and priorities. Related paper No. 5. Washington, D.C.: National Commission on Libraries and Information Science.
Katarzyna Materska
Wydział Nauk Humanistycznych
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Maturity models jako przykład narzędzi
diagnozowania zarządzania informacją
w organizacjach
Maturity models as an example of information
management diagnosis tools in organizations
Słowa kluczowe: modele dojrzałości, narzędzia zarządzania informacją, zarządzanie informacją,
zarządzanie cyklem życia informacji.
Keywords: information lifecycle management, information management, information management tools, maturity models.
Abstrakt
Świadome potencjalnych korzyści organizacje zainteresowane są najlepszymi praktykami w zakresie wdrażania poszczególnych etapów zarządzania informacją (ZI), ale także próbują rozpoznać, na jakim etapie „dojrzałości” w zakresie ZI się znajdują. Celem artykułu jest przybliżenie zestandaryzowanych narzędzi pozwalających osiągnąć te cele, tzw. maturity models, w taki sposób, aby pokazany materiał mógł być źródłem inspiracji do samodzielnego tworzenia tego typu narzędzi dla konkretnych organizacji różnego typu. Podstawowe źródło dociekań stanowiła siłą rzeczy dokumentacja maturity models, a uzupełniająco, dla czytelności wywodu, korzystano z artykułów o zbliżonej tematyce. Wykazano, że tzw. maturity models są wartym zainteresowania narzędziem pozwalającym mierzyć i oceniać zarówno zasoby, jak i stosowane technologie, jak również procesy i potrzebne w organizacji kompetencje informacyjne. Ich istotą staje się także wyznaczanie dalszych ścieżek pożądanego rozwoju ZI.
Abstract
Organizations aware of the potential benefit from best practices in information management (IM) developing, try to recognize the IM maturity level in which they actually operate. The aim of the article is to bring the standardized assessment tools called maturity models into closer focus, to inspire the creation of standalone tools for the purposes of the given organization. The main source of the investigation was maturity models document attachments. To complete and make the argument more clear, some other articles were used additionally. It has been shown that maturity models are tools worthy of interest which allow one to measure and assess sources, technologies, processes and competencies needed in the organization. The essence of them is to appoint the next level of the IM development.
Wprowadzenie
Implementacja projektów zarządzania informacją (ZI) przebiega w różnych organizacjach w zróżnicowanym tempie, z różnoraką jakością, kompletnością oraz efektywnością. Świadome potencjalnych korzyści organizacje zainteresowane są najlepszymi praktykami w zakresie wdrażania poszczególnych etapów ZI, ale także próbują rozpoznać na jakim etapie „dojrzałości” w zakresie ZI się znajdują. Pojawia się coraz więcej propozycji zestandaryzowanych narzędzi (np. maturity models, narzędzi benchmarkingowych oraz audytowych) pozwalających mierzyć i oceniać zarówno zasoby, jak i stosowane technologie, jak również procesy i potrzebne w organizacji kompetencje informacyjne. Ich istotą staje się także wyznaczanie dalszych ścieżek pożądanego rozwoju.
Z uwagi na niewielką objętość tego artykułu zdecydowano się na pokazanie dwóch przykładów narzędzi typu maturity models, nazywając je tu zamiennie „modelami dojrzałości” lub „modelami stopnia dojrzałości ZI”. Wychodząc z założenia, że tekst ma być jak najbardziej pomocny dla tych wszystkich, których interesuje diagnostyka zarządzania informacją, także praktycznie, narzędzia te opisano na tyle dokładnie i wielokierunkowo, by mogły stać się inspiracją do tworzenia własnych narzędzi, dopasowanych do instytucji, które badamy.
Czym są tzw. modele „dojrzałości”?
Koncepcja modeli „dojrzałości” sięga lat 70. XX wieku, kiedy Cyrus F. Gibson i Richard L. Nolan przedstawili w Harvard Business Review cztery stadia rozwoju
zarządzania technologią informacyjną (Gibson, Nolan 1974). Wyróżnili oni cztery podstawowe etapy wzrostu: inicjacja, rozprzestrzenianie się, formalizacja i dojrzałość (maturity).
Kilka lat później rozpoczęto w Software Engineering Institute na Carnegie Mellon University prace nad modelem pod nazwą Capability Maturity Model Integration (CMMI) i to on jest wskazywany jako początek modeli „dojrzałości” (więcej zob: What is Capability, 2017). CMMI dostarcza konstrukcyjnej ramy i jest szeroko stosowany w procesach oceny w odniesieniu do projektów rozwoju oprogramowania, ale także procesów organizacyjnych.
Podstawowa koncepcja tego typu modeli zakłada, że proces oceny pozwala ustanowić wartości początkowe, cele do osiągnięcia, mierzyć osiągnięcia oraz dokonywać ewaluacji procesów organizacyjnych. Stosuje się je do wskazania poziomu zarządzania cyklem życia informacji czy też szeroko pojętego zarządzania informacją w organizacjach, co nakreślono poniżej.
Zarządzanie cyklem życia informacji (Information Lifecycle
Management, ILM)
Wszystkie dane przechowywane w korporacyjnych systemach i sieciach maja swój cykl życia. Cykl życia informacji pokazuje, jaką drogę przebywa ona w organizacji od momentu jej powstania do ewentualnej archiwizacji, czy w końcu usunięcia. Szczegółowe
etapy różnią się w zależności od zastosowanej polityki organizacyjnej, jednak zwykle wyróżnić można trzy zasadnicze etapy:
1.
Tworzenie lub nabywanie informacji i danych. Zarówno jedna, jak i druga
droga pozyskiwania jest cenna dla bieżących procesów organizacyjnych.
2.
Udostępnienie – np. poprzez intranet, stronę WWW. Wymagania dostępności zależą od zawartości i przydatności danych.
3.
Przechowywanie i usuwanie danych – czas przechowywania danych zależy od ich natury i wartości oraz od różnych regulacji prawnych, standardów obligujących organizacje do ich przestrzegania (Harwood, 2004).
Zasadniczą sprawą dla zarządzających informacją jest zapewnienie dostępności
online do danych podczas całego cyklu życia informacji, stosownie do poziomu życzeń użytkownika. Trudnym problemem okazuje się jednak nieustająca zmiana wartości informacji w czasie, co oznacza, że informacja ważna dzisiaj może być nierelewantna jutro. Przechowywanie wszystkich informacji na wysokim poziomie dostępności (z zapewnieniem
natychmiastowości dostępu i przeszukiwalności) jest bardzo kosztowne. Powstaje więc ważne pytanie – które dane mogą zostać skierowane na tańsze platformy przechowywania (dostępu), co oznaczać może słabsze zabezpieczenie danych czy wręcz niebezpieczeństwo utraty w wyniku awarii sprzętu lub oprogramowania.
Zarządzanie cyklem życia informacji (Information Lifecycle Management, ILM) prezentuje zmianę podejścia w odniesieniu do tworzenia i zarządzania infrastrukturą przechowywania oraz do samych danych w nich gromadzonych. ILM nie jest technologią
per-se. W ramach ILM wypracowane zostają strategie zarządzania danymi w trakcie
całego cyklu życia informacji, identyfikowane są procesy i technologie, które uwzględniają
przepływ informacji w konkretnej organizacji. Celem programu ILM jest stworzenie
takiego schematu klasyfikacji informacji, by krytyczna dla organizacji informacja uzyskała
należne jej miejsce, dostęp i ochronę.
Istnieje sporo czynników wzmacniających potrzebę przyjęcia rozwiązań ILM, do których należą m.in. nieustający wzrost danych w niespotykanym dotąd tempie; szacunki pokazujące, że ok. 90% danych wykorzystywana jest rzadko, co sprawia, że umieszczanie ich na drogich nośnikach jest zbyt kosztownym wyborem; wzrost wymagań co do przechowywania i bezpieczeństwa danych nakładanych przez regulacje rządowe, branżowe i inne.
Fundamentem koncepcji ILM jest zrozumienie nieustająco zmieniającej się wartości danych. Dotyczy to każdej organizacji. Skoro strategia ILM uznaje, że nie wszystkie dane są jednakowo istotne na różnych etapach swojego trwania, oznacza to, że muszą być one zarządzane i mogą być przechowywane na różnych poziomach i z wykorzystaniem najbardziej efektywnych kosztowo technologii – stosownie do potrzeb użytkowników w danym czasie. Implementacja strategii ILM oznacza więc identyfikację oprogramowania i sprzętu oraz procesów potrzebnych na każdym etapie życia informacji. Zadaniem strategii jest dopasowanie kosztów przechowywania do wartości informacji, którą wnosi ona do organizacji.
Storage Networking Industry Association (SNIA) definiuje ILM jako: polityki, procesy, praktyki, usługi oraz narzędzia wykorzystywane do dopasowania biznesowej wartości informacji do najbardziej odpowiedniej kosztowo efektywnej infrastruktury
– od momentu utworzenia informacji do jej końcowego usunięcia. Informacja
jest dopasowywana do wymagań biznesowych poprzez politykę zarządzania oraz
poziom usług powiązany z aplikacjami, metadanymi oraz danymi (Building a terminology,
2009, s. 2).
ILM jest kompleksowym podejściem do zarządzania przepływem danych i metadanych w systemach informacyjnych – od momentu utworzenia informacji i jej początkowego przechowywania do czasu, kiedy staje się przestarzała i jest usuwana. Inaczej niż we wcześniejszych podejściach do zarządzania i przechowywania danych, ILM obejmuje wszystkie aspekty związane z danymi, poczynając od praktyk (zachowań) użytkowników
określających wartość danych, do stosowania coraz bardziej złożonych kryteriów
określających czas przechowywania informacji, innych niż tylko wiek danych czy częstotliwość ich wykorzystywania.
Większość organizacji doświadcza dzisiaj gwałtownego wzrostu informacyjnych aktywów. ILM dostarcza możliwości stosowania zasad biznesowych do kontrolowania stopnia
ich przyrostu i ochrony najcenniejszych informacji. Zachowując jedynie najbardziej
wartościowe i przydatne informacje ułatwia organizacjom szybsze docieranie do potrzebnej
informacji i osiąganie znacznej redukcji kosztów związanych z utrzymaniem infrastruktury
zachowania informacji i danych.
ILM Maturity Model
Na początku roku 2008 Data Management Forum’s Information Lifecycle Management Initiative (ILMI) oraz Storage Networking Industry Association (SNIA) End User Council (EUC) podjęły próbę wprowadzenia do praktyki organizacyjnej standaryzowanego narzędzia nazwanego modelem stopnia dojrzałości zarządzania cyklem życia informacji
– tzw. Information Lifecycle Management (ILM) Maturity Model.
Podjętemu wysiłkowi przyświecały trzy zasadnicze cele:
−
dostarczenie zestandaryzowanego narzędzia, które pomogłoby organizacjom określić gdzie znajdują się one w odniesieniu do najlepszych praktyk w zarządzaniu informacją,
−
pomoc organizacjom w doskonaleniu ich praktyk ILM i zbilansowanie poziomu usług związanych z technologią informacyjną oraz obniżaniem kosztów,
−
pomoc w ustaleniu priorytetów inwestycji IT poprzez dostosowanie tych kosztów do zmian wartości informacji organizacyjnej z upływem czasu.
ILM Maturity Model wypełnia wskazane cele dwutorowo:
1.
Definiuje wspólną ramę oraz język do rozważań na temat dojrzałości ILM. W ten sposób umożliwia porównanie, jak dalece zaawansowana jest dana
organizacja w implementacji dobrych praktyk ILM w stosunku do innych
organizacji.
2.
Dostarcza organizacjom informacji na temat dobrych praktyk, co pozwala im doskonalić swoje wdrożenia. Umożliwia też organizacjom dostosowanie
poziomu usług przechowywania do wartości ich informacji, co wiąże się
z redukcją kosztów. W niektórych przypadkach omawiany model dostarcza podstaw do rozpoczęcia implementacji ILM.
ILM Maturity Model jest szablonem, w ramach którego stawia się szereg pytań, które mogą zostać wykorzystane jako scenariusz wywiadów przeprowadzanych wśród interesariuszy. Powinny być nimi osoby z różnych działów zajmujących się informacją (menedżerowie rekordów informacyjnych, komórki ds. bezpieczeństwa, prawa, wdrożeń itp.). Do każdego wywiadu należy używać odrębnego kwestionariusza pytań i notować, z kim i kiedy przeprowadzono wywiad. Wybór interesariuszy najlepiej pozostawić grupie wdrożeniowej ILM (w miarę możliwości multidyscyplinarnej, której przewodniczy ktoś zdolny
do rozstrzygania ewentualnych rozbieżności powstających w grupie). Tak naprawdę
to właśnie praca z interesariuszami rozpoczyna strategię ILM. Ważne jest przyjęcie wspólnej terminologii związanej z ZI.
Każdy ze wskazanych tu czterech kluczowych obszarów („Integracja biznesowa”, „Wdrożenie i dopasowanie informacyjne”, „Zarządzanie danymi” oraz „Infrastruktura”) obejmuje kluczowe procesy opisane w celu właściwej kategoryzacji stopnia dojrzałości praktyk ZI. Dla każdego z obszarów wytyczono pięć kolejnych poziomów osiągnięcia stopnia dojrzałości: początkowy (initial, ad hoc), udokumentowany (repeatable, documented), zestandaryzowany (defined & measured, standarized & correlated), zautomatyzowany (quantitatively manager, automated ILM), doskonalący (optimizing, continuous improvement).
Kluczowe obszary oceny w modelu dojrzałości ILM
Obszar 1: Integracja biznesowa (Business Integration)
Ta część modelu dojrzałości skupia się na politykach i procesach biznesowych, zarządzaniu (procesami, politykami, danymi), wartości procesów biznesowych i wymaganiach
interesariuszy. Praktyki ILM powinny zostać zintegrowane ze sposobem prowadzenia przez organizację swojej działalności. Tak więc wiedza na temat tego, w jaki sposób
działa firma, jest kluczową częścią strategii ILM. Poziom początkowy to „reaktywne” (nie pro-aktywne) środowisko, w tym sensie, że pracownicy nie są świadomi polityk zarządzania danymi organizacji i ich związkiem z wartością procesów biznesowych. Nie sprecyzowane
są także wymagania w odniesieniu do polityk oraz określania wartości procesów
biznesowych. Z kolei optymalnym stanem doskonalenia jest konsekwentne podążanie za wytyczonymi politykami i procesami, praktykami zarządzania, powiązanie wartości ILM z wagą procesów biznesowych, uzyskiwanie sprzężenia zwrotnego we wszystkich zakresach i ciągłe doskonalenie ich dopasowania z ILM.
Badając ten obszar, szukamy więc odpowiedzi na kilka pytań. W jaki sposób biznesowe procesy i polityki oraz praktyki zarządzania danymi są dopasowane i zintegrowane z politykami ILM? Jakie wskaźniki organizacja wypracowała w tych zakresach? W jaki sposób określa się wymagania ILM oraz doskonali polityki ILM?
Obszar 2: Wdrożenie i dopasowanie informacyjne (Application and Information
Alignment)
Obszar dopasowania aplikacji i informacji kieruje pogłębioną analizę w stronę procesów, polityk, zarządzania, dynamiki dopasowania, wartości i dostępności danych w infrastrukturze IT, z uwzględnieniem np. kwestii własności informacji, jej dublowania,
rozpowszechniania, modeli danych. Praktyki ILM powinny być dopasowane do
uwarunkowań organizacji – z czego wynika jakość usług, bezpieczeństwo i zabezpieczenie
danych.
Na etapie początkowym w procesach informacyjnych brakuje np. wskazywania właścicieli informacji, polityka ograniczona jest jedynie do wykonywania backup-ów, zarządzanie sprowadza się do ustalenia schematu bazy danych; w organizacji dubluje się wiele danych, a kopie informacji nie są całkowicie zgodne; wszystkie obiekty informacyjne traktowane są podobnie, bez różnicowania ich wartości; ograniczone jest dzielenie się informacją, brak jest właściwych zabezpieczeń. Stan optymalny zakłada dużą zmianę – firma posiada własne zasoby informacyjne, politykę ochrony informacji, firmową taksonomię, informacja przechowywana jest stosownie do zmieniających się wymagań
biznesowych, w trybie ciągłym szacowana jest wartość informacji dla organizacji, prowadzony jest regularny przegląd polityk dostępu itd.
Obszar 3: Zarządzanie danymi (Data Management)
Zarządzanie danymi należy do ważnych technik zarządzania organizacją
i obejmuje tworzenie i utrzymanie danych w organizacji. Wymaga zrozumienia, jakie aktywa informacyjne istnieją w organizacji i jak informacja jest integrowana z procesami korporacyjnymi. Podstawę podejmowania decyzji w zakresie ILM stanowią metadane. Dla nieustrukturalizowanych plików (np. typu „.doc”) będzie to charakterystyka pliku w postaci wielkości pliku, wskazania jego właściciela, data utworzenia itd. W miarę
wzrostu dojrzałości ILM wymagane są dodatkowe metadane, np. czas utrzymywania
danych w systemie i czas wygaśnięcia ważności informacji, fizyczna lokalizacja itd. Tak więc w stadium początkowym organizacja nie posiada uwspólnionych danych, a w stadium zaawansowanym (optymalizacji) metadane są zachowywane automatycznie, stosownie do zachodzących zmian i dojrzewania systemu zarządzania danymi. Polityki ILM powinny zostać włączone do organizacyjnych praktyk zarządzania danymi.
Procesy zarządzania danymi budowane są na zestawieniach metadanych, co prowadzi m.in. do budowania wspólnej taksonomii i automatycznego raportowania jakości danych.
Obszar 4: Infrastruktura i zarządzanie usługami (Infrastructure and Service
Management)
Polityki ILM powinny mieć swoje odzwierciedlenie w aktualnej infrastrukturze IT. Ostatni z obszarów koncentruje się na takich kryteriach jak usługi przechowywania danych, zabezpieczenie danych, spójność, bezpieczeństwo i migracja danych. Wyższy koszt infrastruktury wspiera wyższy poziom usług i odwrotnie. Powinny istnieć także mechanizmy (ręczne lub automatyczne), które umożliwiają różną dostępność, niezawodność (reliability) i wydajność (performance) danych na zróżnicowanych kosztowo poziomach usług w danym czasie.
Bez względu na punkt wyjścia, w ocenie stopnia dojrzałości ILM, wskazane obszary można traktować jako pola nowych możliwości. Warto szukać ról, stanowisk, osób
odpowiedzialnych w firmie za różne procesy, polityki, narzędzia oraz budować sieci
relacji. To właśnie ci interesariusze będą rozmówcami podczas prowadzonych w ramach modelu dojrzałości wywiadów.
Istotnym krokiem jest przygotowanie pytań do kwestionariusza wywiadu. Problematyczna może być stosowana terminologia (niezrozumiała czy niejednoznaczna dla wszystkich). W przypadku Forum Zarządzania Danymi SNIA opublikowano Building a terminology bridge guidelines for digital information retention and preservation practices in the datacenter (Building a terminology, 2009). Terminology bridge powstawał dwa lata i wyjaśnia najczęściej używane terminy oraz zmianę ich znaczenia w zależności od roli pełnionej w organizacji. Jego istnienie bardzo ułatwiło prowadzenie wywiadów.
Ustalenie punktacji (wyników) jest najtrudniejszym zadaniem w modelu
dojrzałości. Wbrew dążeniu do obiektywnych kryteriów, które oferuje model, wymagana jest
także subiektywna ocena każdego z czterech obszarów. Nie wszystko da się ująć w ustrukturyzowane kategorie. Należy podkreślić, że model jest jedynie narzędziem poznawczym i diagnostycznym i bezsensowne jest traktowanie go w kategoriach zdobywania punktów, gdyż nie istnieje jedna poprawna odpowiedź, właściwa dla każdej organizacji.
W trakcie rozwijania modelu przyjęto, że z wielu wywiadów prowadzonych
w danym obszarze działania organizacji, wybierane są wyniki z tego wywiadu, w którym ocena obszaru wypadła najsłabiej i ta uznawana jest za wyjściową i wskazującą kierunki do dalszych działań.
Dotychczasowe doświadczenia we wprowadzaniu modelu dojrzałości ILM
dowiodły, że pomocna jest wizualizacja uzyskanych wyników, pokazująca stan dojrzałości w każdym z obszarów. Ułatwia to typowanie miejsc wymagających np. większego doinwestowania i uwagi. Każda z organizacji może sporządzić własnych schemat (wzór) dopasowany do potrzeb własnej organizacji.
Przykład takiej prostej wizualizacji pokazuje rysunek nr 1.
Rysunek 1. Wizualizacja wyników – przykład.
Źródło: The Information Lifecycle Management Maturity Model (2009). Storage Networking Industry Association (SNIA). Data Management Forum, s. 27. http://www.snia.org/sites/default/files/SNIA-DMF_ILM_Maturity_Model_20090921-Final.pdf (odczyt: 29.02.2017).
Z pewnością propozycja samooceny organizacyjnej poprzez model dojrzałości ILM stwarza szansę na poprawę i doskonalenie procesów zarządzania informacją, głównie w ocenie cyklu życia informacji. Powinna być prowadzona w systematyczny sposób, by aktualizować wiedzę potrzebną do osiągania coraz lepszej dojrzałości organizacji
w zakresie zarządzania informacją.
IM3 – Information Management Maturity Measurement
Information Management Maturity Measurement, zwane w skrócie narzędziem IM3, to 17 pytań na temat różnych aspektów bieżącej praktyki, polityk i procedur zarządzania informacją (ZI) podzielonych na 4 obszary:
1. Ludzie.
2. Organizacja.
3. Cykl życia informacji i jakość.
4. Systemy i procesy biznesowe (IM3…Tool, 2015).
Narzędzie zostało udostępnione w programie Microsoft Excel; jego komponentami są także następujące dokumenty w formacie pdf: Questionnaire (IM3… Questionnaire, 2015), Instructions & guidance (IM3… Instructions & guidance, 2015) oraz Developing IM in your organisation (IM3 …Developing IM, 2015). Wszystkie zostały przygotowane przez Public Record Office Victoria (PROV) w Australii oraz udostępnione na licencji CC-BY.
Z założenia narzędzie IM3 może być stosowane do wskazania ogólnego poziomu ZI w organizacji, oceny stopnia rozwoju strategii i praktyk ZI w organizacji, realizacji założonych wymagań współczesnego ZI. Wyniki uzyskane z pomocą narzędzia IM3 mogą zostać wykorzystane do wskazania mocnych i słabych stron w ZI; nadania priorytetów tym obszarom ZI, które wymagają uwagi; powiązania z odpowiednimi dokumentami, standardami, wskazówkami; wsparcia w tworzeniu celów ZI i rozwijania potrzebnych umiejętności; wsparcia spraw związanych z zasobami i inicjatywami doskonalącymi ZI. Wśród spodziewanych korzyści twórcy narzędzia wymieniają: lepszą identyfikację mocnych i słabych punktów ZI w organizacji i wzmacnianie tych ostatnich, orientację, gdzie zacząć drogę do dojrzałości w ZI, wykorzystanie informacji do wsparcia aplikacji o fundusze na ZI, możliwość porównywania się z innymi.
Odpowiedzią na każde pytanie jest wybranie jednej z pięciu możliwych opcji
określającej ocenę poziomu dojrzałości organizacji:
1. Brak zarządzania informacją (unmanaged).
2. Świadomość istnienia ZI (aware).
3. Etap kształtowania (formative).
4. Etap operacyjny (operational).
5. Etap aktywny (proactive).
Wskazówki charakteryzujące poszczególne poziomy dojrzałości podaje dokument (IM3...Developing IM, 2015), w którym przygotowano krótkie wyjaśnienie istoty
każdego z czterech wyróżnionych tu obszarów ZI.
Pytania IM3 nie mogą być traktowane jako lista kontrolna, gdyż nie ma odpowiedzi dobrych czy złych. Jest to narzędzie wspierające samoocenę stopnia dojrzałości strategii ZI, planowania i praktyk organizacyjnych. Pytania dotyczą wszystkich typów informacji w organizacji, papierowych i elektronicznych. Informacji na dyskach sieciowych, przechowywanych w różnego rodzaju repozytoriach (bazach danych, systemach informacji o klientach, systemach wspierających operacje biznesowe), informacji publikowanej w intranecie i Internecie, maili, stron WWW, powiadomień (instant messages), mediów społecznościowych i innych.
Narzędziu (zestawowi pytań) towarzyszy wiele innych dokumentów pomocniczych, przewodników, wykazów standardów itp. Bardzo cenny jest przewodnik z krótkim opisem wyróżnionych czterech obszarów ZI – wraz z sugestiami podpowiadającymi
możliwe rozwinięcie działań na każdym poziomie dojrzałości organizacji (IM3…Developing IM, 2015). Dokumenty uzupełnione są wykazem elektronicznych źródeł przygotowanych przez Victoria State Government i innych.
Poniżej zaprezentowano pytania narzędzia IM3, z syntetyczną charakterystyką danego obszaru i sugestiami podniesienia stopnia dojrzałości ZI na tym polu – od zdiagnozowanego braku ZI do etapu najwyższego (aktywnego). Naszkicowanie propozycji rozwoju organizacyjnego ZI (na podstawie: IM3…Developing IM, 2015) wydało się
Autorce konieczne, by pokazać, że narzędzie daje możliwość nie tylko diagnozowania, ale i planowania coraz bardziej optymalnych etapów ZI.
Ludzie. Kompetencje informacyjne i odpowiedzialność
Pytanie 1: Czy pracownicy odpowiedzialni za zarządzanie informacją w organizacji są świadomi swoich obowiązków? Czy informacja jest uważana za cenne aktywa i tak traktowana?
Organizacja, która uznaje, że informacja jest jej cennym zasobem, potrzebuje pracowników, którzy rozumieją jej rolę i wartość w organizacji oraz posiadają umiejętności i wiedzę jej najbardziej efektywnego wykorzystania. W „wieku informacji”
technologie i Internet dają ciągły dostęp do niesłychanie wielkiej ilości informacji, co może
w miejscu pracy skutkować przeładowaniem informacyjnym i uczuciem niepokoju, frustracji, dezinformacją, informacją błędną, poczuciem braku adekwatnych
umiejętności technologicznych związanych z dostępem i korzystaniem z wiedzy, problemami
z lokalizowaniem informacji. Odnosi się to szczególnie do pracowników pracujących w usługach publicznych. Information-literate workers (pracownicy o wysokiej
kulturze informacyjnej) potrafią: rozpoznać, kiedy i gdzie i w jakiej ilości informacja jest
potrzebna, rozpoznać, jak informacja jest zorganizowana, efektywnie lokalizować
i pozyskiwać do niej dostęp, oceniać informację, zarządzać nią oraz rozumieć gospodarcze, prawne, społeczne i kulturowe zagadnienia wykorzystywania informacji.
Etapy rozwoju kultury informacyjnej (information literacy):
1. Uczenie się czym jest kultura informacyjna w miejscu pracy – obejmuje samokształcenie poprzez czytanie bieżącej literatury oraz włączenie w szkolenia biblioteki (lub innej kompetentnej jednostki).
2. Prowadzenie ewaluacji (oceny) umiejętności informacyjnych potrzebnych
w miejscu pracy i porównanie ich z bieżącym poziomem umiejętności personelu. Włączenie zadań związanych z kulturą informacyjną do zakresu obowiązków.
3. Utworzenie centralnego wykazu źródeł informacyjnych w organizacji wraz
z przewodnikiem dostępu do źródeł. Pozyskiwanie i promowanie szkoleń na tematy dotyczące kultury informacyjnej, np. jak korzystać z wyszukiwarek, jak oceniać informację, jak cytować źródła cyfrowe? Korzystanie z wiedzy pracowników innych instytucji dotyczących źródeł informacji i ich wykorzystania.
4. Uwzględnianie tematyki kultury informacyjnej w programie różnych spotkań, zainicjowanie forum na ten temat lub utworzenie strony informacyjnej. Szkolenia na bardziej zaawansowanym poziomie, np. ekonomiczna charakterystyka informacji, wartości informacji, efektywności kosztowej i społecznych kontekstów kultury
informacyjnej w miejscu pracy, takich jak networking, working relationships i orientacja na klienta.
5. Spotkania z jednostkami z wewnątrz i zewnątrz organizacji w celu dzielenia się rezultatami nauki i doświadczeniami. Włączenie polityki kultury informacyjnej do dokumentów strategicznych. Rozwijanie programów szkoleniowych z zakresu kultury informacyjnej – stosownie do potrzeb organizacji i dziedziny pracy.
Ludzie. Zdolności i możliwości organizacyjne
Pytanie 2. Czy potencjał i wydajność organizacyjnego ZI są wystarczające do wsparcia i rozwoju dobrego ZI?
W odniesieniu do ZI pomocne mogą być pytania: Jakie zdolności w zakresie ZI są potrzebne organizacji? Jakie kompetencje ZI personel aktualnie posiada? Czy będziemy rozwijać możliwości obecnej kadry czy też zatrudnimy nowych pracowników? Czy istnieją zasadnicze obszary naszej działalności, w których należy zwiększyć kompetencje ZI? Czy kadra jest wystarczająco przygotowana do podjęcia zadań ZI, które chcemy wdrożyć? Jak możemy doskonalić nasze istniejące praktyki ZI?
Etapy rozwoju zdolności i możliwości:
1. Przeprowadzenie analizy organizacyjnych zdolności ZI i porównanie ich z bieżącymi obowiązkami kadry w zakresie ZI. Przygotowanie komunikatu o wymaganiach w zakresie umiejętności ZI w organizacji.
2. Uświadomienie luk w organizacyjnych zdolnościach i możliwościach ZI w dziale zasobów ludzkich. Definiowanie na nowo roli pracowników z umiejętnościami w zakresie ZI – zwiększenie ich odpowiedzialności w zakresie ZI.
3. Zdobycie funduszy na stanowisko specjalisty ds. ZI lub konsultacje. Inwestowanie w usługi, które mogą zwiększyć możliwości informacyjne organizacji. Promowanie korzyści z wprowadzenia odpowiednich środków i możliwości ZI do zarządzania organizacją.
4. Zapewnienie ustawicznych szkoleń zapewniających doskonalenie umiejętności ZI.
5. Zapewnienie, by wykazy zdolności i umiejętności ZI były uaktualniane i odzwierciedlały zmiany wymagań organizacji. Ułatwianie ściślejszych powiązań pomiędzy specjalistami ds. informacji i technologii.
6. Dokumentowanie i publikowanie strategii zarządzania zdolnościami potrzebnymi do ZI oraz ich planowania w rozpoznawalnym periodyku lub na forum dyskusyjnym. Wspieranie i umacnianie specjalistów ds. ZI w oczach władz na różnych spotkaniach, posiedzeniach. Wprowadzenie programu rozpoznania specjalistów
ds. informacji, którzy odgrywają kluczową rolę w przyczynianiu się do sukcesu organizacji.
Ludzie. Szkolenia, wsparcie i dzielenie się wiedzą
Pytanie 3: Jakiego rodzaju szkolenia i wsparcie w dzieleniu się wiedzą jest dostępne dla pracowników organizacji i towarzyszy im w ich obowiązkach związanych z ZI?
Udane ZI w organizacji wymaga odpowiednich szkoleń, wparcia i dzielenia się wiedzą z pracownikami. Szkolenia powinny obejmować takie umiejętności i wiedzę, jak np.: znajomość odpowiednich uregulowań prawnych i standardów; zasady i praktyka zarządzania informacją (ogólnie) i zarządzania rekordami oraz zarządzanie projektami w tych obszarach; efektywne umiejętności komunikacyjne; zrozumienie cyfrowych możliwości systemów biznesowych wykorzystywanych w organizacji. Szkolenia mogą być prowadzone bardzo różnymi metodami i sposobami.
Etapy rozwoju szkoleń i dzielenia się wiedzą w organizacji:
1. Przeprowadzenie analizy w zakresie potrzeb szkoleniowych kadry w celu identyfikacji luk w zakresie umiejętności i wiedzy na temat ZI. Uruchomienie funkcji szkoleń w organizacji.
2. Śledzenie kursów zewnętrznych wypełniających lukę w zakresie wiedzy i umiejętności ZI. Włączenie szkoleń dotyczących ZI i dzielenia się wiedzą w zakres planów rozwoju osobistego pracowników.
3. Rozwijanie personalizowanych szkoleń i strategii dzielenia się wiedzą dla różnych grup w organizacji, pod kątem specyficznych potrzeb w zakresie ZI. Uruchomienie szkoleń dla nowoprzyjętych pracowników.
4. Wcielenie w życie odpowiednich metod ewaluacji aktualności i efektywności szkoleń oraz programów dzielenia się wiedzą.
5. Ustanowienie programu szkoleń coachingowych, mentoringu i networkingu w celu wspomagania rozwoju mniej doświadczonych pracowników. Udostępnianie własnych szkoleń innym organizacjom, działom, departamentom. Rozwijanie programów edukacyjnych na temat przyszłych problemów i nowopowstających obszarów ZI.
Organizacja. Zarządzanie
Pytanie 4: Do jakiego stopnia ZI jest formalnie wspierane przez zarząd w organizacji?
Duża rola w zapewnieniu odpowiedniej widoczności, koordynacji (w tym: prywatności i bezpieczeństwa informacji), monitorowania i poziomu sponsorowania ZI przypada zarządzaniu. Zarządzanie powinno przebiegać zgodnie z wypracowanymi zasadami, standardami i statutowymi wymaganiami.
Etapy rozwoju zainteresowania kierownictwa ZI:
1. Zapoznanie się ze standardami, by zrozumieć ich rolę i cele.
2. Zbadanie, czy standardy stosowane są w istniejących ciałach, komitetach.
Kontaktowanie się z innymi kolegami, by uczyć się, jak implementują zalecenia.
3. Formalizacja standardów, powołanie odpowiedniej komórki w organizacji
i wyznaczenie planów regularnych spotkań.
4. Ustanowienie programu przeglądu polityk i procesów ZI zgodnie z dokumentacją audytową w organizacji, by upewnić się, że procedury są relewantne dla kluczowych interesariuszy.
5. Przygotowanie raportu dla zarządu na temat wcielenia i wpływu zasad ZI i standardów na funkcjonowanie organizacji.
Organizacja. Strategia ZI i wizja
Pytanie 5: Czy organizacja posiada strategię, która stanowi harmonogram ZI? Czy organizacja sformułowała i jasno wyraziła swoją wizję ZI?
Strategia ZI jest organizacyjną wizją ZI oraz systematycznym podejściem do osiągnięcia tej wizji. Potwierdza ona, do jakiego stopnia nowoczesna organizacja zależy od informacji i rozważa, jak ten cenny zasób organizacji powinien być zarządzany. Strategia ZI powinna zawierać m.in.: wizję i cele organizacyjnego podejścia do ZI, powiązanie z celami organizacyjnymi i strategicznymi, analizę SWOT, określenie bieżącej sytuacji, w tym identyfikację informacyjnych zasobów i ich typów, analizę środowiska, z włączeniem odpowiedniej polityki, standardów i regulacji zaadaptowanych w organizacji, plan implementacji i działania na wysokim poziomie, w tym wskazanie, kto jest odpowiedzialny za ZI i rekordami, wskazanie odpowiednich regulacji prawnych, na które strategia się powołuje. Niezmiernie ważne jest, by strategia była poparta przez władze (naj)wyższego szczebla.
Etapy rozwoju strategii i wizji ZI:
1. Zbadanie, co zawiera strategia ZI, a co mogłaby zawierać. Zidentyfikowanie, czy może organizacja posiada strategię IT i jak ta odnosi się do strategii ZI.
2. Poszukiwanie przykładów strategii ZI z innych organizacji, departamentów.
3. Szukanie (także poprzez badania z zewnątrz) wsparcia do naszkicowania strategii ZI dla własnej organizacji.
4. Zapewnienie, że cele i wymagania strategii ZI będą wspierane przez organizację, w szczególności w obszarze IT, i że wskażą istniejące luki.
5. Zapewnienie corocznego przeglądu strategii ZI. Upewnienie się, że kluczowe
plany współpracy pomiędzy organizacjami oraz projekty i systemy podlegające różnym porządkom prawnym zawierają wymagania ZI.
Organizacja. Strategiczne dostosowanie
Pytanie 6: Do jakiego stopnia strategia ZI jest dopasowana i włączona w całość planowania strategicznego organizacji?
Wymagania i cele strategii ZI wymuszają dostosowanie innych systemów i strategii w organizacji, np. IT, bezpieczeństwa, ryzyka, bezpieczeństwa i higieny pracy, prowadzenie dokumentacji, zarządzanie środowiskiem.
Etapy strategicznego dostosowania:
1. Zidentyfikowanie istniejących już w organizacji planów i dokumentów.
2. Sfinalizowanie formułowania celów i zharmonizowanie ich z innymi strategiami.
3. Ścisła współpraca z działem IT, by uzyskać synergię pomiędzy strategiami ZI
i IT (czasami strategie ZI i IT odnoszą się do podobnych kwestii, co może być nieco mylące).
4. Nawiązanie łączności z innymi obszarami działania organizacji, by cele i zadania ZI pasowały do ich strategicznych planów, a nie tworzyły osobnej wizji.
5. Rozważenie rozwinięcia ogólnej strategii ZI w kilka podstrategii, odnoszących się do poszczególnych strumieni i procesów biznesowych.
Organizacja. Wsparcie kierownictwa i przywództwo
Pytanie 7: Czy kadra zarządzająca wspiera ZI w organizacji? Czy inicjatywy ZI pochodzą także ze szczebla menedżerskiego?
Sukces ZI zależy od wsparcia wszystkich szczebli zarządzania i przywództwa,
także nagłośnienia spraw ZI. Oznacza to zbieżność celów ZI z szerszymi celami strategicznymi organizacji.
Etapy rozwijania wsparcia kierownictwa:
1.
Identyfikowanie możliwych działań, by uzyskać większe wsparcie i przywództwo dla ZI w organizacji i podejmowanie tematu z odpowiednim z menedżerów.
2.
Dokonanie przeglądu, czy sprawy ZI są obecne na szczeblu strategicznym, na forum spraw poświęconych ryzyku i jakości; lokalizowanie innych możliwości prezentowania ZI.
3.
Formalizowanie zagadnień ZI na spotkaniach szczebla wykonawczego. Przeglądanie, czy porozumienia w sprawie zatrudnienia, opisy stanowisk pracy i plany działania uwzględniają organizacyjną i strategiczną odpowiedzialność za prowadzenie takiej ewidencji.
4.
Zapewnienie, by naczelnemu kierownictwu przypisano ogólnoorganizacyjną i strategiczną odpowiedzialność za ZI i prowadzenie związanej z tym ewidencji i by było to dokumentowane, komunikowane i oceniane systematycznie.
5.
Zachęcanie do kulturowej zmiany poprzez promowanie i zrozumienie ZI na szczeblu wykonawczym, rozpoznawania i nagradzania dobrych zachowań w tym obszarze.
Organizacja. Audyt i dostosowanie
Pytanie 8: Na ile skutecznie organizacja monitoruje przestrzeganie standardów ZI?
Istotne jest, czy organizacja przestrzega standardów, polityk i procedur ZI oraz w jakim stopniu kadra wykonuje swoja zadania zgodnie z tymi standardami. Regularny audyt może identyfikować luki i problemy, aby pomóc rozwijać pomocne strategie. Potrzebne jest monitorowanie i programy dostosowawcze, benchmarking wskaźników ilościowych i jakościowych, raportowanie oraz dalsze działania.
Etapy rozwijania audytu i dostosowania:
1. Wskazanie punktów dostosowania z ZI, które powinny podlegać audytowi. Zidentyfikowanie wskaźników audytu, które powinny zapewnić zgodność (dostosowanie).
2. Dostarczanie informacji menedżerowi, w jaki sposób regularnie sprawdzać pliki
i ich zawartość, by potwierdzić, że stosowane są właściwe procedury. Konsultowanie z kierownikami działów i innymi interesariuszami planu audytu dla wybranych obszarów, departamentów, sekcji itp.
3. Zapisanie programu audytu i uzyskanie poparcia naczelnych władz odpowiedzialnych za ZI. Stworzenie planu audytu i rozpowszechnienie go wśród całej kadry. Upewnienie się, że wymagania dostosowania zostały rozpropagowane w całej organizacji i są stosowane w ZI.
4. Zapewnienie, by działania korygujące uwzględniały zasadnicze przyczyny niedostosowania i by takie działania były podejmowane systematycznie i cyklicznie.
5. Zbadanie, jak rezultaty audytu mogą wpływać na regulacje prawne, polityki i tandardy ZI. Zbadanie możliwości poprawienia zgodności w obszarach wysokiego
ryzyka. Benchmarking dopasowania praktyk w innych organizacjach i jednostkach.
Cykl życia informacji i jakość. Zarządzanie aktywami informacji
Pytanie 9: Na ile dobrze organizacja identyfikuje, zarządza i monitoruje swoje cenne aktywa informacji? Czy zdefiniowano role i obowiązki potrzebne do właściwego zarządzania aktywami informacji?
Aktywa informacji pełnią zasadniczą rolę w procesach podejmowania decyzji oraz dostarczania usług w zarządzaniu. Podobnie jak w przypadku innych aktywów, informacja powinna być zarządzana, przechowywana, a jej wartość maksymalizowana. Stworzenie
programu „opieki” nad aktywami informacyjnymi pozwala osiągnąć lepsze wyniki ZI.
Standard takiej opieki wymaga w każdej jednostce identyfikacji najbardziej znaczących aktywów (odrębnych kolekcji danych lub informacji uznanych za najbardziej cenne), ustanowienia i prowadzenia Rejestru aktywów informacyjnych, obejmującego te najbardziej znaczące; rozwinięcia w organizacji specjalnego modelu, który precyzuje kluczowe odpowiedzialności w zarządzaniu tymi aktywami; wyznaczenie osób odpowiedzialnych, edukowanie ich w zakresie ich ról i odpowiedzialności.
Znaczącymi dla organizacji aktywami informacji mogą być: zasoby nakazane
prawem, które powinny być łatwo i szybko dostępne; wrażliwe dane, których niewłaściwe użycie może powodować kłopotliwe sytuacje, zniszczenie danych lub konsekwencje prawne; informacja publiczna.
Etapy rozwijania zarządzania aktywami (zasobami):
1. Zapoznawanie się ze standardami dotyczącymi aktywów informacyjnych
i „opieką” nad nimi. Rozpoczęcie procesu identyfikacji aktywów informacyjnych w organizacji.
2. Rozpoczęcie tworzenia Rejestru aktywów informacyjnych. Wskazywanie dla każdego z aktywów zarówno kustoszy, jak i posiadaczy informacji.
3. Rozpowszechnienie w organizacji informacji o Rejestrze aktywów informacyjnych i „opiekunach” tych zasobów. Upewnienie się, że wybrane osoby znają swoje odpowiedzialności, rejestrują i utrzymują aktywa informacyjne w ciągu całego
cyklu ich życia.
4. Założenie forum dla „opiekunów” i posiadaczy informacji, by umożliwić im wymianę doświadczeń i wiedzy, promowanie standardów. Zagwarantowanie, że
opiekunowie współpracują z użytkownikami, by doskonalić użyteczność i dzielenie się zasobami.
5. Zapewnienie, że w przypadku aktywów użytkowanych wspólnie z innymi organizacjami, formalnie wskaże się kto jest za nie odpowiedzialny. Regularne aktualizowanie Rejestru aktywów informacyjnych.
Cykl życia informacji i jakość. Polityki i procedury
Pytanie 10: Czy organizacja w pełni rozwinęła i zaimplementowała polityki ZI i zarządzania rekordami? Czy polityki te wspierane są przez skodyfikowane procedury?
Organizacja powinna stworzyć swoje własne, odrębne polityki i procedury dotyczące ZI. Powinny one dostarczyć pracownikom podstaw do tworzenia i zarządzania urzędowymi (authentic), miarodajnymi i użytecznymi aktywami informacji do celów organizacyjnych i sprawozdawczych.
W tym miejscu warto dodać kilka uwag na temat relacji: strategia zarządzania informacją, a polityka informacyjna. Są to powiązane, jednak różne inicjatywy i dokumenty.
Strategia ogólnie definiuje charakter, misję i kierunki organizacji. Nakierowana jest na długoterminowe relacje ze środowiskiem, wyszczególnia, co organizacja zamierza robić w przyszłości. Strategie są formułowane i implementowane z intencją osiągnięcia określonych celów.
Polityka mówi nam, co powinniśmy lub nie powinniśmy robić, aby przyczynić się do osiągnięcia organizacyjnych celów. Polityka jest zwięzłym dokumentem, który wyznacza odpowiedzialności i zasady. Wyjaśnia, jak cel może być osiągnięty i sprawia, że strategia staje się bardziej klarowna. Konkretne procedury są więc wywiedzione z polityk (procedura określa krok po kroku szczegóły tego, jak wykonać coś zgodnie z zasadami).
Efektywna polityka ZI jest dostosowana do środowiska organizacyjnego, kierunków strategicznych, ram politycznych i programu ZI; odzwierciedla bieżące potrzeby organizacyjne oraz wymagane prawem obowiązki informacyjne. Mając poparcie i wsparcie przedstawicieli najwyższego szczebla zarządzania, jest komunikowana i implementowana regularnie w całej organizacji. Obejmuje wszystkie systemy, które zawierają rekordy zapisanej informacji oraz powiązane z nimi praktyki. Jest wspierana przez zestaw procedur, przewodników, narzędzi; umożliwia monitorowanie przestrzegania jej wdrożenia i regularną ocenę. Polityka musi odnosić się do zapisów informacji we wszystkich formatach (papierowych, poczty elektronicznej, stron WWW, operacji online i innych systemów) oraz być dostępna dla wszystkich pracowników.
Etapy rozwijania polityk i procedur ZI:
1. Analizowanie istniejących dokumentów zawierających elementy ZI i wskazanie polityk, które powinny zostać rozwinięte.
2. Wdrażanie zrozumienia co powinno być elementem polityki ZI i jak powinna wpasowywać się w organizacyjne praktyki informacyjne – poprzez konsultacje
z odpowiednimi władzami i interesariuszami.
3. Zagwarantowanie, że polityki są wspierane poprzez zapisane i dostępne wszystkim procedury.
4. Zagwarantowanie, że polityki i procedury są dystrybuowane i dostępne wszystkim pracownikom w organizacji, a naruszenia polityki są odnotowywane i korygowane.
5. Planowanie okresowych przeglądów i uaktualnienia polityk i procedur. Ocena
zastosowania polityk w celu potwierdzenia,że adekwatnie odpowiadają organizacyjnym potrzebom i wymaganiom ZI.
Cykl życia informacji i jakość. Wychodzenie naprzeciw potrzebom informacyjnym
Pytanie 11: Czy informacja odpowiada na potrzeby organizacji oraz jej użytkowników pod względem strategicznej wagi, jakości i dostępności?
W celu zagwarantowania pracownikom dostępu do informacji, która zaspokaja ich potrzeby informacyjne (teraz i w przyszłości), powinno prowadzić się analizę potrzeb informacyjnych, która odpowiada na dwa pytania:
1. Jaką informację posiadamy?
2. Jaką informację chcemy posiadać?
Różnica pomiędzy pytaniami powinna wyznaczyć kierunek działań.
Określanie potrzeb można prowadzić różnymi technikami (dyskusja, przegląd, wywiad, obserwacja uczestnicząca, analiza zadaniowa) z udziałem podstawowych grup pracowników (tych, którzy bezpośrednio zaangażowani są w bieżące działania organizacji).
Etapy doskonalenia wychodzenia naprzeciw potrzebom informacyjnym:
1. Prowadzenie analizy potrzeb w celu identyfikacji specyficznych potrzeb różnych grup użytkowników w organizacji.
2. Stworzenie matrycy informacyjnych potrzeb oraz dostępnych (bieżących) źródeł; stworzenie planu dostarczania kluczowych źródeł w celu uniknięcia ryzyka braku potrzebnej informacji.
3. Zidentyfikowanie w organizacji informacji dublujących się i przechowywanych fragmentarycznie; zaplanowanie ich integracji lub usunięcia.
4. Zagwarantowanie wiarygodnego punktu dostępu do kluczowych zasobów informacyjnych i ich jakości przez osoby odpowiedzialne (custodians). Zapewnienie odpowiedniej proporcji źródeł wewnętrznych i zewnętrznych.
5. Rozwijanie instrukcji jakości danych dla kluczowych aktywów i wprowadzanie procesów doskonalenia jakości, tam gdzie jest to potrzebne.
Cykl życia informacji i jakość. Wychodzenie naprzeciw potrzebom informacyjnym. Dostępność i wyszukiwalność (discoverability)
Pytanie 12: Z jaką łatwością pracownicy organizacji oraz inne osoby są w stanie znaleźć informację, której szukają? Czy newralgiczna informacja, gdy jest potrzebna, zostaje znaleziona najwcześniej jak to możliwe lub w odpowiednim czasie?
„Dostępność” (accesssibility) zwykle rozumiana jest jako „możliwość skorzystania z systemu przez osoby niepełnosprawne oraz inne osoby, dla których odbiór treści może być utrudniony przez różnego rodzaju okoliczności (np. podeszły wiek użytkownika, brak możliwości zaangażowania w danym momencie wszystkich zmysłów czy brak dostępu do szybkiego transferu danych).” (Paleczna, 2016, s. 26). Oprócz możliwości stwarzanych odbiorcom z różnymi ograniczeniami w pojęciu dostępności mogą się mieścić: interoperacyjność, wielojęzyczność, oprogramowanie open source, otwarta zawartość, licencje Creative Commons.
Discoverability to stopień wyszukiwalności informacji. Służą temu m.in. metadane opisujące informację, polityka bezpieczeństwa i prywatności, przyjęte standardy. Warto zauważyć, że chociaż technologia wyszukiwawcza jest istotnym komponentem całego środowiska informacyjnego, to jednak nie stanowi substytutu dobrej kultury informacyjnej i procesów ZI.
Etapy doskonalenia dostępności i wyszukiwalności:
1. Testowanie dostępności i wyszukiwalności informacji w organizacji z wykorzystaniem rzeczywistych użytkowników i ich potrzeb oraz badanie pojawiających się problemów.
2. Rozwijanie standardów w celu doskonalenia dostępności i wyszukiwalności, np. dotyczących tworzenia nazw plików, tytułów dokumentów, oznakowania.
3. Zajęcie się barierami dostępności i wyszukiwalności. Zagwarantowanie, by np. strona WWW była zgodna ze stworzonymi (wcześniej) standardami.
4. Wykorzystanie narzędzi analityki online do określenia najczęściej wykorzystywanych zasobów lub ostatnio wykorzystywanych i określenie przyczyn tych zjawisk.
5. Dzielenie się standardami z innymi organizacjami, aby łatwo mogły korzystać z informacji pomiędzy sobą. Dbanie o dostępność i wyszukiwalność informacji dla grup, które nie mają równego dostępu do informacji.
Cykl życia informacji i jakość. Wychodzenie naprzeciw potrzebom informacyjnym. Wykorzystanie i ponowne wykorzystanie (reuse) informacji
Pytanie 13: Na ile przydatna jest informacja tworzona w organizacji, zarówno
teraz, jak i w przyszłości?
Użyteczność (usability) to cecha jakości określająca łatwość systemu w użyciu. Dla użytkownika wiąże się z osiągnięciem celu, efektywnością i odczuciem skuteczności systemu oraz satysfakcji (Jokela i in., 2003, s.54). Jest skutkiem sposobu gromadzenia informacji, jej organizowania, opisywania, prezentowania, definiowania oraz udostępniania. Termin usability często odnoszony jest do stron WWW oraz interfejsu użytkownika, ale może być stosowany do wszystkich źródeł informacji.
Pojęcie re-use wiąże się z pojęciem interoperacyjności, co oznacza zdolność organizacji do dzielenia się (wymiany) danych i informacji z wykorzystaniem powszechnie dostępnych standardów, licencji i otwartych danych.
Warto w tym miejscu dodać, że Unia Europejska wydała dyrektywę w sprawie ponownego wykorzystania informacji sektora publicznego (Dyrektywa 2003/98/WE), znowelizowaną przez Dyrektywę z 2013 r., która opiera się na założeniu, że sektor publiczny gromadzi, tworzy, „re-tworzy” i rozpowszechnia szeroki zestaw informacji z wielu
obszarów działań człowieka – społecznych, gospodarczych, geograficznych, pogody, turystyki, biznesu, patentów i informacji edukacyjnej. Ponowne wykorzystanie tych
informacji „może odegrać ważną rolę w stymulowaniu rozwoju nowych usług opartych na nowatorskich sposobach łączenia i korzystania z takich informacji, pobudzić wzrost gospodarczy i wesprzeć zaangażowanie społeczne” (Dyrektywa 2013/37/UE, s.1). W wytycznych zaleca się dostępność dokumentów do ponownego użycia we wszystkich formatach – tam gdzie to możliwe zaleca się stosować format otwarty, a także by zasoby nadawały się do odczytu komputerowego wraz z metadanymi.
Etapy doskonalenia wykorzystania i ponownego wykorzystania informacji:
1. Analizowanie źródeł informacji pod kątem zasad usability.
2. Zastosowanie zasad usability do istniejących zasobów informacji w celu poprawy dostępu i wykorzystania.
3. Wprowadzenie organizacyjnych standardów ułatwiających gromadzenie, opis i organizowanie informacji, a także ochronę przed dublowaniem informacji.
4. Dzielenie się informacją do ponownego wykorzystania wewnątrz organizacji oraz z interesariuszami zewnętrznymi. Zapewnienie, że odpowiednia osoba pracuje z żytkownikami informacji w celu zwiększenia dostępności informacji.
5. Uwolnienie odpowiednich danych i informacji poprzez odpowiednie kanały.
Systemy i procesy biznesowe. Architektura informacji
Pytanie 14: Czy organizacja wypracowała model architektury informacji? Do jakiego stopnia koresponduje on z modelami architektury biznesowej oraz architektury IT?
Architektura informacji (AI) odnosi się do projektowania, rozmieszczenia i layoutu organizacyjnej informacji i systemów. Plan AI wskazuje, jak informacja i rekordy w organizacji muszą być opisane i zorganizowane, by informacja sprawnie była dostarczana w odpowiednim kontekście do odpowiednich ludzi. W dojrzałej organizacji istnieje ścisła relacja pomiędzy AI i innymi strategiami, które tworzą architekturę firmy, np. architektura biznesu, która skupia się na strukturze funkcjonalnej organizacji i jej usługach oraz informacji biznesowej.
Etapy doskonalenia wykorzystania i ponownego wykorzystania:
1.
Zbadanie, czym jest AI i jakie korzyści może przynieść organizacji. Zdefiniowanie wizji informacji organizacyjnej, celów i zasad.
2.
Zidentyfikowanie istniejącej architektury organizacyjnej i przemyślenie, jak AI mogłaby się do niej odnieść. Uchwycenie, stworzenie obrazu środowiska informacyjnego organizacji.
3.
Uzyskanie wsparcia ze strony kierownictwa wysokiego szczebla dla AI.
Naszkicowanie „idealnej” AI, by pokazać kierunki i cele.
4.
Zadbanie, by wszystkie nowe projekty i inicjatywy w organizacji były przemyślane w kontekście AI. Zapewnienie, by AI była odpowiednio utrzymywana, zarządzana i zasilana.
5.
Dzielenie się wynikami i korzyściami z AI z innymi departamentami, organizacjami.
Systemy i procesy biznesowe. Doskonalenie procesów
Pytanie 15: Na ile dobrze procesy biznesowe harmonizują z wymaganiami ZI, by zapewnić jakość informacji? Czy organizacja zidentyfikowała punkty integracji informacyjnej i procesy eliminowania informacji powielających się?
Systematyczne doskonalenie procesów biznesowych pomaga organizacji osiągać najlepsze rezultaty. W odniesieniu do ZI doskonalenie procesów to: identyfikacja źródeł i przepływu informacji w organizacji; identyfikacja i usunięcie dublującej się informacji; zdefiniowanie logicznego rozmieszczenia i pogrupowania informacji, zdefiniowanie
kontekstualnych powiązań biznesowych pomiędzy informacją, wdrożenie prewencyjnych lub korygujących działań.
W analizie procesów wykorzystuje się dwa typy analizy: analizę funkcjonalną – grupowanie wszystkich procesów podejmowanych do osiągnięcia specyficznych, strategicznych celów lub funkcji organizacji oraz analizę sekwencyjną – mapowanie procesów biznesowych w sposób sekwencyjny (każdy proces to sekwencyjny zbiór czynności,
powiązanych zależnościami przyczynowo-skutkowymi), co ujawnia zależności pomiędzy
składowymi procesów.
Etapy doskonalenia procesów:
1. Identyfikacja procesów biznesowych organizacji zależnych od ZI i dokumentowanie bieżących operacji.
2. Analiza procesu biznesowego w celu wychwycenia punktów dublowania, wąskich gardeł i możliwości poprawy.
3. Wybranie jednego procesu biznesowego i skupienie się na jego doskonaleniu oraz mierzenie rezultatów.
4. Zagwarantowanie, że doskonalenie procesów biznesowych przebiega zgodnie z celami strategicznymi organizacji.
5. Benchmarking procesów biznesowych innych organizacji w celu identyfikowania nowych możliwości doskonalenia.
Systemy i procesy biznesowe. Systemy biznesowe i narzędzia
Pytanie 16: Czy technologia dostępna w organizacji wspiera i umożliwia rozwiązania strategii organizacyjnego ZI?
Tak naprawdę wszystkie systemy informatyczne zawierające publiczną informację muszą być efektywnie zarządzane, od nabycia po likwidację informacji, by zapewnić integrację, niezawodność i jakość wyników w systemie.
Etapy doskonalenia systemów biznesowych i narzędzi:
1. Dokonanie przeglądu i audytu bieżących systemów biznesowych. Rozpoznanie dostępu, wymagań, logowania się, przechowywanej informacji, formatu i czy ta sama informacja przechowywana jest w innych organizacyjnych systemach.
2. Rozmowa z kolegami z innych organizacji na temat tego, z jakich technologii biznesowych korzystają i jakie mają doświadczenia z systemem.
3. Rozpoznanie, gdzie narzędzia ZI i systemy mogłyby zostać połączone lub zintegrowane w organizacji.
4. Analiza, do jakiego stopnia technologia wspiera cele organizacyjnej strategii ZI i gdzie pozostały luki. Zagwarantowanie, by w polityce informacyjnej były zapisy pozwalające na usunięcie lub migrację systemu, który nie jest już dłużej potrzebny.
5. Zbadanie i zaadoptowanie powstających w innych organizacjach technologii i narzędzi ZI.
Systemy i procesy biznesowe. Prywatność informacji i bezpieczeństwo
Pytanie 17: Jak wygląda stan bezpieczeństwa informacji w organizacji? Czy pracownicy mają wiedzę i wsparcie dla zapewnienia bezpieczeństwa informacji oraz ochrony prywatności informacji osobistej?
Istnieje wiele aktów prawnych regulujących kwestie bezpieczeństwa informacji i ochrony danych. Także organizacje zobowiązane są zadbać o stworzenie i wprowadzenie odpowiednich w tym zakresie standardów.
Etapy doskonalenia polityki bezpieczeństwa i prywatności:
1. Zapoznanie się z regulacjami prawnymi i uświadomienie sobie wymagań.
2. Rozpoczęcie planu uwzględniającego wymagania regulacji prawnych.
3. Rozwijanie planu szacowania ryzyka bezpieczeństwa. Rozwinięcie strategii edukacyjnej dla pracowników organizacji na temat ochrony prywatności i bezpieczeństwa informacji.
4. Aktywna implementacja strategii zapewniającej bezpieczeństwo informacji
w organizacji.
5. Dzielenie się wynikami i korzyściami z wdrożenia stosowanych regulacji prawnych i standardów z innymi departamentami, organizacjami. Przygotowanie przeglądu planu ochrony danych co dwa lata lub gdy pojawią się znaczące zmiany.
Zarządzanie informacją wiąże się ze świadomością, że stan obecny nie jest zakładanym stanem optymalnym. Pomiar i ocena staje się nieodłącznym elementem ZI – ustalaniem, na jakim etapie jesteśmy.
Oceny „dojrzałości” organizacji na polu implementacji ZI nie daje się zapisać w postaci punktacji, jest to pomiar względny i indywidualny; inna ocena stanu bieżącego innej organizacji nie oznacza, że jest ona lepsza czy gorsza, jest po prostu inna. Badanie efektywności ZI zawsze dokonywane jest przez pryzmat konkretnej organizacji.
Podsumowanie
Kupowanie przez organizacje różnorodnych profesjonalnych narzędzi ZI nie zmienia automatycznie poziomu, na którym znajduje się organizacja w zakresie ZI. Programy te często są zbyt zaawansowane lub niedostosowane do organizacyjnych procesów czy kompetencji pracowników, a więc i ich potencjał wykorzystywany bywa w dalece niedostatecznym stopniu.
Zaprezentowany materiał pozwala stwierdzić, że maturity models stanowić mogą przydatne narzędzie w diagnostyce i ocenie zarządzania informacją w organizacjach. Ich elastyczność polega m.in. na tym, że można je zastosować jako narzędzie holistycznego podejścia do ZI lub też do wybranego obszaru ZI. Trzeba jednak przyznać, że jako
narzędzia organizacyjnej samooceny wymagają sporego i dobrego przygotowania się do jej przeprowadzenia. Opracowanie narzędzia wymaga pracy zespołowej, przy okazji której można się wiele nauczyć. Cenną umiejętnością (podobnie jak w narzędziach audytowych) jest sztuka stawiania pytań. Wydaje się, że propozycje pytań wykorzystanych w obydwu zaprezentowanych modelach nie wyczerpują zakresu ZI we współczesnych organizacjach, tym bardziej, że odmienna specyfika organizacji biznesowych i niekomercyjnych, w tym np. bibliotek czy uczelni wyższych, stawia przed tymi organizacjami odmienne cele. Uświadomienie sobie celów ZI, które chcemy osiągnąć, jest podstawą, na której powinniśmy oprzeć zgrane ze sobą strategie, polityki, procesy, praktyki, narzędzia i potrzebne kompetencje. W badaniu dojrzałości ZI można wskazać inne dowolne obszary pomiarów stanu obecnego, można też zastosować inne skale. Najważniejsze, żeby zrozumieć, gdzie jesteśmy, zmaksymalizować tę wiedzę zanim podejmiemy kolejne (nieprzemyślane) działania. Maturity models są w tym pomocne.
Bibliografia
1.
Building a terminology bridge. Guidelines for digital information retention and preservation practices in the datacenter (2009). Storage Networking Industry Association (SNIA). Data Management Forum. http://www.snia.org/sites/default/files/SNIA-DMF_Building-a-Terminology-Bridge_20090515.pdf (odczyt: 29.02.2017).
2.
Dyrektywa 2003/98/WE Parlamentu Europejskiego i Rady z dnia 17 listopada 2003 r. w sprawie ponownego wykorzystywania informacji sektora publicznego. Dziennik Urzędowy Unii Europejskiej, L 345/90, 31.12.2003.
3.
Dyrektywa 2013/37/UE Parlamentu Europejskiego i Rady z dnia 26 czerwca 2013 r. zmieniająca dyrektywę 2003/98/WE w sprawie ponownego wykorzystywania informacji sektora publicznego. Dziennik Urzędowy Unii Europejskiej, L 175/1, 27.6.2013.
4.
Gibson, Cyrus. F.; Nolan, Richard L. (1974). Managing the four stages of EDP growth. Harvard Business Review; January–February, pp. 76-87. https://www.researchgate.net/publication/239538731_Managing_the_Four_Stages_of_EDP_Growth (odczyt: 12.03.2017).
5.
Harwood, Mike (2004). Storage basics: information lifecycle management. http://www.enterprisestorageforum.com/management/features/article.php/3299031/Storage-Basics-Information-Lifecycle-Management.htm (odczyt: 12.03.2017).
6.
IM3 Information Management Maturity Measurement. Developing IM in your organisation. Version 1.5, December 2015. https://www.prov.vic.gov.au/sites/default/files/files/IM3%20Tool/IM3_Developing_IM_v1.5.pdf (odczyt: 10.02.2017).
7.
IM3 Information Management Maturity Measurement. Instructions and guidance. Version 1.5, December 2015. https://www.prov.vic.gov.au/sites/default/files/files/IM3%20Tool/IM3_Instructions__Guidance_v1.5.pdf (odczyt: 10.02.2017).
8.
IM3 Information Management Maturity Measurement. Questionnaire. Version 1.5, December 2015. https://www.prov.vic.gov.au/sites/default/files/files/IM3%20Tool/IM3_Questionnaire_v1.5.pdf (odczyt: 10.02.2017).
9.
IM3 Information Management Maturity Measurement. Tool. Version 1.5, December 2015. https://www.prov.vic.gov.au/sites/default/files/files/IM3%20Tool/IMMM_v1.5.xls (odczyt: 10.02.2017).
10.
Jokela, Timo; Iivari, Netta; Matero, Juha; Karukka, Minna (2003). The standard of user-centered design and the standard definition of usability: analyzing ISO 13407 against ISO9241-11. In: Proceedings of the Latin American Conference on Humancomputer Interaction. New York: ACM, pp. 53-60. https://pdfs.semanticscholar.org/6967/59f613699090d0d6301ebb1e547471018d1e.pdf (odczyt: 31.03.2017).
11.
Paleczna, Dominika (2016). Aspekty projektowania i oceny systemów informacyjno- wyszukiwawczych bibliotek na początku XXI wieku. Praca doktorska napisana pod kierunkiem dr hab. Katarzyny Materskiej. Uniwersytet Warszawski (maszynopis).
12.
The Information Lifecycle Management Maturity Model (2009). Storage Networking Industry Association (SNIA). Data Management Forum. http://www.snia.org/sites/default/files/SNIA-DMF_ILM_Maturity_Model_20090921-Final.pdf (odczyt: 29.02.2017).
13.
What is Capability Maturity Model Integration (CMMI)®? (2017). CMMI Institute. http://cmmiinstitute.com/capability-maturity-model-integration (odczyt: 31.03.2017).
Mirosław Górny, Rafał Lewandowski
Zakład Systemów Informacyjnych
Instytut Językoznawstwa, Uniwersytet im. Adama Mickiewicza w Poznaniu
Metody i techniki diagnozowania systemów
informacyjnych – podejście teleologiczne
Diagnostic methods and techniques for information systems – a teleological approach
Słowa kluczowe: diagnozowanie, podejście celowościowe, systemy informacyjne.
Keywords: diagnostics, information systems, teleological approach.
Abstrakt
Celem artykułu jest przedstawienie istoty podejścia teleologicznego w diagnozowaniu systemów informacyjnych. Przedstawiono cele diagnozowania wskazując na główne wskaźniki funkcjonowania systemu informacyjnego. Są nimi przepustowość systemu, stabilność i niezawodność, możliwości wyszukiwania informacji. Omówiono problem formułowania celów systemu. Przedstawiono też techniki zbierania danych. Zwrócono tu uwagę na niektóre problemy występujące w procesie zbierania danych poprzez sondaże. Przedstawiono przykład kwestionariusza zbierania danych w bibliotece naukowej traktowanej jako system informacyjny. Omówiono krótko metody diagnozowania systemów informacyjnych. Podejście celowościowe narzuca konieczność precyzyjnego ustalania celów systemu, co jest zapewne jego najważniejszą zaletą. Dzięki temu diagnozowanie uwzględnia zawsze cały system i wszystkie jego funkcje.
Abstract
The paper outlines a teleological approach to diagnostics with regard to information systems. The objectives of diagnostics are presented, referring to the key indicators of the functioning of an information system, namely the throughput capacity of the system, its stability and reliability, and the possibilities of seeking information. The problem of formulating the goals of the system is discussed. Data collection techniques are also presented, and attention is drawn to certain problems arising in the process of data collection through surveys. An example is given of a questionnaire used to collect data in an academic library treated as an information system. A brief description is given of diagnostic methods for information systems. The teleological approach entails a requirement to define precisely the purposes which a system is to serve, and this is undoubtedly its greatest advantage. As a result, the diagnostic process always encompasses the system as a whole and all of its functions.
Wstęp
Diagnozowanie systemów informacyjnych jest rutynowym działaniem we wszystkich dziedzinach, gdzie systemy te są wykorzystywane. Aczkolwiek istnieje jeden wyjątek. W systemach informacji naukowej praktycznie nie używa się terminu „diagnozowanie”, co jednak nie oznacza, że tego diagnozowania się w rzeczywistości nie przeprowadza. Niemniej systemy informacji naukowej – jeśli do nich zaliczymy wszelkiego rodzaju układy złożone z zasobów informacji, ludzi i elementów technicznych, których celem jest przetwarzanie i udostępnianie informacji o charakterze naukowym – są poddawane diagnozowaniu stosunkowo rzadko.
Operacja ta jest niezbędna przede wszystkim tam, gdzie zagrożone jest ludzkie życie i zdrowie, oraz ewentualnie tam, gdzie liczy się na określone profity ekonomiczne. Natomiast znaczna część systemów informacji naukowej nie spełnia funkcji związanych ze wspomnianymi zagadnieniami. I zapewne to jest głównym powodem, dla którego diagnozowanie stosowane jest tu rzadziej.
Dochodzimy w ten sposób do bardzo ważnej kwestii – sygnalizowanej już w tytule – do podejścia teleologicznego. Podejście to oznacza, że głównym kryterium diagnozowania są cele systemu. Od tego, w jaki sposób są one sformułowane, zależy przygotowanie, przebieg i interpretacja wyników procesu diagnozowania. Oczywiście nie są to jedyne kryteria.
Przygotowując proces diagnozowania, na ogół bierzemy pod uwagę również cechy systemu i sposoby uzyskiwania analizowania danych. Niemniej cele systemu i stopień ich realizacji stanowią w podejściu teleologicznym kryterium kluczowe.
Przegląd literatury
Literatura dotycząca ściśle tematu diagnozowania systemów informacyjnych jest stosunkowo uboga. Co zapewne związane jest z tym, że zagadnienie diagnozowania systemów informacyjnych dotyczy głównie problemów występujących w systemach informatycznych. Natomiast problemy występujące w systemach informacyjnych – jeśli w ogóle są omawiane – nie są wiązane na ogół z pojęciem diagnozowania.
Przytaczamy tutaj dwie kluczowe prace dotyczące diagnozowania systemów informacyjnych, które co prawda nie wyczerpują tematu, niemniej reprezentują dwa zasadnicze podejścia do tematu.
Praca Information systems diagnosis (Heinrich, Pomberger, Haentschel, 1999)
reprezentuje nurt związany z oceną efektywności systemów informacyjnych. Autorzy wiążą skuteczność (effectiveness) – rozumianą jako dostępne funkcje i usługi wspierające procesy w instytucji, którą system informacyjny obsługuje (autorzy mówią tu o instytucjach komercyjnych) – z wydajnością (efficiency) rozumianą jako stosunek nakładu kosztów do efektów.
Koncepcja metryczna (metrics concept) zakłada, że obiektami diagnozy są wszystkie obiekty systemu (materialne i niematerialne) – sprzęt, oprogramowanie, personel, procedury, procesy itp. Atrybutami obiektów są parametry, które mają wpływ na osiąganie celów przez system. Natomiast ostatnim elementem są metody pomiaru (sondaże ustne, pisemne, obserwacje bezpośrednie, pośrednie itp.).
Poza tym autorzy rozróżniają wartości parametrów: rzeczywiste (czyli takie jakie są w rzeczywistości), oczekiwane (takie, które zakładano), standardowe (wynikające z procedur normalizacyjnych) i porównawcze (występujące w innych systemach).
Natomiast druga praca (Davis i in., 1992) dotyczy procesu diagnozowania, którego celem jest wykrywanie przyczyn nieprawidłowego funkcjonowania systemu informacyjnego. Jest ona swego rodzaju instrukcją postępowania. Zawiera uporządkowany zestaw działań, których zastosowanie ma ułatwić odkrycie źródeł występujących nieprawidłowości.
Procesy – które w jakimś stopniu mogą być uznane za działania diagnostyczne – omawiane są w wielu publikacjach dotyczących badania satysfakcji użytkownika, projektowania systemów informacyjnych, oceny efektywności systemów itp. Rzecz w tym, że na ogół nie używa się tam terminu „diagnoza”. Świadczy to zapewne o tym, że pojęcie diagnozowania kojarzone jest jednak głównie z medycyną bądź z układami technicznymi.
Cele diagnozowania
Jak już wspomniano, diagnozowanie systemów informacyjnych jest traktowane dwojako. Albo jako równoznaczne procesowi oceny efektywności systemów, albo jako działania służące wykrywaniu przyczyn nieprawidłowości działania systemów, punktów krytycznych, stanów zagrożenia stabilności systemu itp.
Uwzględnianie celów systemu jako głównych kryteriów diagnozowania jest dość oczywiste. Stanowią one punkty odniesienia, dzięki którym można ustalić, w jakim stopniu system realizuje założone cele. Choć takim punktem odniesienia mogą być też inne systemy albo tzw. standardy (normy).
Sam proces diagnozowania zwykle składa się ze zbioru różnych metod. Są one zwykle zorientowane na badanie określonych parametrów systemu.
Przepustowość systemu
Przepustowość jest ważnym parametrem we wszystkich systemach realizujących usługi. A do takich należą systemy informacyjne.
Przepustowość może być definiowana na kilka sposobów. Najogólniej mówiąc, jest to liczba zadań, którą system jest w stanie zrealizować, nie przekraczając wartości założonych parametrów. Najczęściej oznacza to, że czas oczekiwania na wykonanie zadania nie przekracza ustalonej wartości. Diagnozowanie przepustowości powinno pozwolić uzyskać wyniki mówiące o tym, jak zmienia się czas realizacji zadań w zależności od wielkości obciążenia systemu.
System jest zwykle badany w warunkach typowych, dominujących. Jeśli jednak przewiduje się możliwość zmian tych warunków, diagnozowanie musi objąć wszystkie sytuacje, których wystąpienie jest prawdopodobne. Zespół diagnozujący bierze wówczas pod uwagę wszystkie możliwe wartości obciążenia, żeby ustalić, jak system będzie się zachowywał w określonych warunkach. Najczęściej dotyczy to wzrostu liczby zadań w określonym czasie do jakiegoś poziomu. Wówczas wynik diagnozy będzie zawierał zapewne takie wartości, które są istotne dla użytkownika, czyli np. wydłużenie się czasu oczekiwania na realizację zadania. W skrajnych przypadkach efektem przeciążenia może być nawet upadek systemu.
Może to dotyczyć np. bibliotek akademickich w okresie wyjątkowo intensywnej działalności użytkowników – np. na początku roku akademickiego. Może też dotyczyć bibliotek cyfrowych w okresach wzmożonych działań czytelników zbiegających się z dużym natężeniem prac bibliotekarzy. Wówczas praca serwerów ulega spowolnieniu i wynikiem diagnozy jest ustalenie, jak wielkie są opóźnienia w odniesieniu do poszczególnych zadań.
Stabilność i niezawodność systemu
Innym celem diagnozowania jest sprawdzenie odporności systemu na awarie i wszelkiego rodzaju zakłócenia. Jest oczywiste, że tego rodzaju sytuacje są możliwe i należy sprawdzić, jak będzie wyglądała realizacja zadań systemu w warunkach jego niepełnej sprawności. W procesie diagnozowania ustala się, jak często może dochodzić do różnego rodzaju przerw w pracy związanych np. z zawieszaniem się systemu informatycznego i podobnymi przypadkami. Ważnym wynikiem diagnozy jest też ustalenie, jak długo może trwać proces przywracania pełnej sprawności systemu.
Wyszukiwanie informacji
Diagnozowanie zdolności systemu do wyszukiwania informacji należy do zadań najtrudniejszych. W systemach „zamkniętych”, czyli takich, w których zakres odpowiedzi jest ściśle ograniczony (np. w systemach obsługujących hurtownie zapytanie o określony rodzaj produktu związane jest tylko z jedną, jednoznaczną odpowiedzią), ocena jest dokonywana stosunkowo łatwo.
Ale w systemach „otwartych” (do których należą systemy informacji naukowej) problem polega głównie na niemożności dokładnego ustalenia intencji wyszukującego. A zgodność odpowiedzi z intencjami użytkownika zawartymi w pytaniu jest tu ważnym kryterium oceny. Rzecz jasna, tam gdzie zapytania są względnie jednoznaczne, ocena jest dużo łatwiejsza.
Termin „wyszukiwanie” jest tu użyty jako ogólne pojęcie oznaczające co najmniej kilka sposobów eksploracji zbiorów, z których każdy realizuje inny cel. Jednym z nich jest odnajdywanie jednostek, których opis jest przynajmniej częściowo znany (retrieval). Inną kategorią jest wyszukiwanie zasobów związanych z tematem zapytania (searching). Jeszcze inną kategorią jest przeglądanie zasobu w celu poznania jego zawartości (browsing).
Problematyka efektywności wyszukiwania jest szeroko omawiana w literaturze fachowej i stąd nie poświęcamy jej tu więcej miejsca.
Formułowanie celów systemu
W wielu instytucjach cele systemów informacyjnych są formułowane w sposób mało przydatny w procesie diagnozowania. Konieczne wówczas staje się ich odpowiednie przeformułowanie i sprecyzowanie.
Ale problem nie sprowadza się li tylko do kwestii semantycznych. Zwykle dotyczy on samego ustalenia rzeczywistych celów systemu. Okazuje się nierzadko, że cele systemu zostały opisane bardzo ogólnie. Np. określenia umieszczane w statutach bibliotek na ogół nie mają żadnego praktycznego znaczenia. A proces diagnozowania wymaga kompletnych i precyzyjnych sformułowań.
Można przyjąć schemat, według którego cele systemu formułowane są następująco: system realizuje w zadanym stopniu określone zadania informacyjne w odniesieniu do danej grupy użytkowników informacji, spełniając ustalone warunki.
Formuła ta zakłada, że oprócz jasnego i precyzyjnego określenia zadania, konieczne jest też określenie cech użytkownika oraz warunków i stopnia realizacji zadania.
1. Zadania – sformułowanie zadania przydatnego w procesie diagnozowania polega na jednoznacznym jego określeniu, bez wskazywania na sposób jego wykonania. Zadania mogą być formułowane na różnych poziomach szczegółowości. Oznacza to, że niektóre zadania mogą zostać rozłożone na zadania składowe, elementarne. Nazwami działań mogą być nazwy procesów występujących w systemach informacyjnych – np. udostępnianie, gromadzenie, przechowywanie, sporządzanie opisów, wyszukiwanie itp.
2. Obszar tematyczny – tu określa się dziedzinę, którą obsługuje dany system informacyjny.
3. Kategoria użytkowników informacji – określa kategorię użytkownika informacji – np. student danego kierunku, pracownik naukowy itp.
4. Stopień realizacji zadania– chodzi o ustalenie, w jakim stopniu zadanie powinno być zrealizowane, aby można było uznać rezultat za zadowalający.
5. Warunki realizacji zadania – określa się warunki dodatkowe dla realizacji danego zadania. Najczęściej chodzi o:
a) czas realizacji zadania,
b) postać fizyczną informacji (papier, cyfrowa postać),
c) sposób dostępu do informacji (np. wypożyczenia do domu, czytelnia,
dostęp w sieci wszędzie, dostęp w sieci na uczelni),
d) poziom kompletności uzyskanej informacji,
e) aktualność informacji.
W przypadku systemów „zamkniętych”, czyli takich, które muszą dawać odpowiedź tylko jedną i jednoznaczną, formuła ta jest stosunkowo łatwa do zastosowania. Dotyczy to np. obsługi hurtowni czy systemów administracji, gdzie zadania realizowane są zwykle w czasie rzeczywistym, a wyniki są jednoznaczne i kierowane do uprawnionych użytkowników.
Natomiast w systemach informacji naukowej – np. w odniesieniu do systemów wyszukiwania publikacji naukowych- schemat powyższy nie jest już tak łatwy do wykorzystania. Jeśli natomiast uznamy, że system składa się z wielu podsystemów – jest np. biblioteką naukową -formułowanie celów staje się jeszcze trudniejsze.
Możemy przyjąć, że funkcjonowanie dużego systemu informacyjnego składa się ze zbioru wielu różnych zadań. Zadania te dają się na ogół wyszczególnić i połączyć z określonymi grupami użytkowników informacji. Zdecydowanie najtrudniej jest określić stopień realizacji tych zadań i warunki ich realizacji.
Techniki zbierania danych w podejściu celowościowym
Monitoring
Monitoring jest zwykle prowadzony przez pracowników obsługujących dany system. Są oni zobowiązani rejestrować zachowania i uwagi użytkowników informacji. W systemach informatycznych możliwe jest wykorzystanie zapisów z logów serwerów.
Monitoring, jako technika diagnozowania systemów informacyjnych, jest przede wszystkim tani. Poza tym może być prowadzony w sposób ciągły. Jego wadą jest zapewne to, że pracownicy, którzy zobowiązani są do prowadzenia monitoringu, popadają po pewnym czasie w rutynę. Poza tym mogą wykazywać się stronniczością i np. zafałszowywać opisy niektórych sytuacji.
Sondaż
Sondaże są bardzo popularną techniką zbierania danych przydatnych w procesie diagnozowania. Ich wyniki wymagają jednak odpowiedniej interpretacji – zwykle trudniejszej niż w przypadku pozostałych technik. Bowiem oceny i uwagi respondentów są tylko danymi wymagającymi opracowania.
Oczywiście konstrukcja i układ pytań są zadaniem należącym już do projektanta kwestionariusza. Jednak warto zwrócić tutaj uwagę na kilka spraw.
1. Respondenci mogą oceniać stopień realizacji zadania, wykorzystując skalę pięciopunktową – stosowanie skali bardziej rozbudowanej zwykle nie ma uzasadnienia.
2. Warunki realizacji zadania mogą być również oceniane podobnie.
3. Bardzo istotnym problemem, na który często nie zwraca się uwagi, jest doświadczenie użytkownika informacji – respondenta. Powinno brać się pod uwagę przede wszystkim to, jak długo respondent ma kontakt z samym systemem albo przynajmniej
z wybranymi funkcjami tego systemu. Doświadczony użytkownik może dobrze znać
filozofię systemu i dzięki temu lepiej sobie radzić niż użytkownik początkujący. Stąd jego oceny mogą być wyższe. Ale równocześnie długi czas korzystania z systemu może ujawniać błędy, których nowicjusze nie dostrzegają.
4. Kolejna sprawa związana z doświadczeniem dotyczy pewnych właściwości systemu, które wiążą się z jego obsługą. Bardzo często mówi się o tym, że system powinien być tak skonstruowany, żeby jego obsługa była zgodna z intuicją. Otóż nie wszyscy mają podobną intuicję. Poza tym systemy informacji naukowej są na ogół budowane dla użytkowników, którzy będą korzystać z nich co najmniej kilka lat (np. studenci). Zatem należy rozważyć, czy warto dążyć do uzyskania określonego poziomu łatwości obsługi kosztem podwyższenia np. złożoności systemu. Łatwość obsługi może mieć znaczenie tylko dla osób początkujących. Może zatem bardziej opłacalne jest szkolenie użytkowników niż komplikowanie systemu po to, aby uzyskać właściwości, które mają znaczenie (zwykle krótkotrwałe)tylko dla niewielkiej grupy użytkowników.
5. Warto przygotować oddzielne rodzaje kwestionariuszy dla poszczególnych kategorii użytkowników. Oczywiste jest, że inaczej pracują studenci, a inaczej nauczyciele. Poza tym w grupie studentów mamy dopiero przyjętych na pierwszy rok i agistrantów. W grupie nauczycieli są doktoranci i habilitanci. Poza tym występują różnice związane
z dziedzinami. To wszystko ma wpływ na sposób działania i oczywiście na oceny i uwagi zamieszczane w sondażach. Trzeba również uwzględniać to, że na uczelniach dominuje użytkownik, który szuka informacji, korzystając z wyspecjalizowanych baz danych. Jeśli korzysta z wyszukiwarek ogólnych, to raczej z takich jak Google Scholar. Tu pojawia się m.in. problem oceny funkcjonowania dość kosztownych multiwyszukiwarek lokalnych. Czytelnik zapytany o sensowność ich zastosowania na ogół odpowie, że są przydatne. Bez względu na to, czy z nich korzysta, czy nie. Podobnie będzie, jeśli zostanie zapytany o to, czy warto istniejący system uzupełnić o tego rodzaju multiwyszukiwarkę. Nie warto zadawać pytań dotyczących akceptacji planowanych rozwiązań, bo respondent zwykle takowych nie zna i przeważnie- na wszelki wypadek – będzie dawać odpowiedzi twierdzące. A takie odpowiedzi mają niewielką wartość. Dlatego diagnozowanie planowanych udoskonaleń i narzędzi wymaga specjalnie przygotowanych kwestionariuszy.
6. Nie ma też sensu zadawanie bezpośrednich pytań związanych z wyborem czegoś, co jest w sposób oczywisty korzystniejsze dla użytkownika. Np. w przypadku pytania typu: woli Pan/Pani czytać tekst w postaci drukowanej czy na ekranie monitora – zwykle otrzymamy odpowiedzi świadczące o preferowaniu druku. Jednak użytkownik informacji zwykle zaakceptuje postać cyfrową w zamian za liczne korzyści, które łączą się z wprowadzeniem tej postaci źródeł. Stąd sondaże powinny ujawniać raczej poziom popularności danego rozwiązania. Użytkownik zwykle jest w stanie wiarygodnie odpowiedzieć na pytanie o to, czy korzysta z danego elementu systemu i czy korzysta często – tak lub nie. Natomiast pytania o powody korzystania czy niekorzystania należą do pytań trudnych.
Poniżej przedstawiono prosty przykład schematu kwestionariusza sondażu celowościowego (w przypadku stopnia realizacji zadania i warunków jego realizacji wykorzystano skalę pięciopunktową: 1 – poziom absolutnie niezadowalający; 2 – poziom raczej niezadowalający, 3 – poziom oceniany jako dostateczny ; 4 – poziom oceniany jako dobry; 5 – poziom oceniany jako bardzo dobry).
Zadanie – udostępnianie podręczników dla kierunku studiów X
Użytkownik – student kierunku X (rok studiów N)
Dziedzina – X
Stopień realizacji zadania – 4
Warunki realizacji zadania
−
postać źródła (cyfrowa) – 4
−
sposób dostępu (tylko na komputerach w czytelni) – 3
−
kompletność – 5 (wszystkie podręczniki potrzebne znajdują się w zbiorach czytelni)
−
czas realizacji – 2 (w pewnych okresach brakuje miejsc w czytelni i trzeba na nie czekać co najmniej x minut)
−
aktualność informacji – 3 (ponieważ podręczniki trafiają do sieci z pewnym opóźnieniem)
*****
−
postać źródła (drukowana) – 5
−
sposób dostępu (w czytelni) – 3
−
kompletność – 5 (wszystkie podręczniki potrzebne są w zbiorach)
−
czas realizacji – 2 (czas oczekiwania na miejsce w czytelni i wolny egzemplarz przekracza średnio x minut)
−
aktualność informacji – 5 (podręczniki trafiają do zbiorów bez opóźnienia)
*****
−
postać źródła (drukowana) – 5
−
sposób dostępu (wypożyczenie do domu) – 5
−
kompletność – 5 (wszystkie podręczniki potrzebne są w zbiorach)
−
czas realizacji – 1 (czas oczekiwania na zwrot pozycji przekracza np. dwa miesiące)
−
aktualność informacji – 5 (podręczniki trafiają do zbiorów bez opóźnienia)
*****
−
postać źródła (drukowana) – 5
−
sposób dostępu (wypożyczenia krótkoterminowe – np. na jeden dzień, albo na weekend)– 5
−
kompletność – 3 (nie wszystkie podręczniki potrzebne są udostępniane w ten sposób)
−
czas realizacji – 5
−
aktualność informacji – 5 (podręczniki trafiają do zbiorów bez opóźnienia)
Zadanie – udostępnianie informacji bibliograficznej w dziedzinie Y
Użytkownik – pracownicy naukowi związani z dziedziną Y
Dziedzina – Y
Stopień realizacji zadania – 4
Warunki realizacji zadania
−
Postać źródła (cyfrowa) – 5
−
Sposób dostępu (wszędzie, gdzie jest dostęp do sieci) – 5
−
Kompletność – 3 (brakuje niektórych tytułów czasopism)
−
Czas realizacji – 5
−
Aktualność informacji – 5
−
Wyszukiwalność
wyszukiwanie pozycji, których opis jest znany częściowo – 5
przeglądanie – 4
wyszukiwanie tematyczne – 3
Przykłady te ilustrują możliwość zastosowania prostego kwestionariusza jako narzędzia diagnostycznego. Tutaj respondentami są w pierwszym przypadku studenci kierunku X, a kwestionariusz dotyczy tylko jednego zadania. W drugim przypadku respondentami są pracownicy naukowi. Kwestionariusz również dotyczy tylko jednego zadania, choć o nieco innym charakterze.
Oczywiście użyte tutaj wzory kwestionariuszy są tylko schematami. Rzeczywisty kwestionariusz musi być dostosowany do świadomości informacyjnej respondenta. Inaczej mówiąc, poszczególne pytania muszą być przez respondenta rozumiane tak jak to założyła sobie osoba projektująca kwestionariusz. Zatem odpowiednie sformułowanie pytań stanowi w tym przypadku zagadnienie samo w sobie.
Rzecz jasna uzyskane w ten sposób wyniki stanowią tylko podstawę właściwej diagnozy. A jest nią odpowiednia interpretacja.
Metody diagnozowania celowościowego
Test
Testy polegają zwykle na celowym, świadomym tworzeniu sytuacji, których wystąpienie jest prawdopodobne, po to, aby obserwować funkcjonowanie poszczególnych elementów systemu. Na ogół jest to dość trudne. Stąd rzadko podejmuje się takie eksperymenty. Poza tym sytuacja testowa często odbiega swoimi cechami od rzeczywistej.
W przypadku systemów informacyjnych często testuje się jego infrastrukturę informatyczną. Zwykle też testom poddawany jest jeden wybrany element systemu informacyjnego. Choć najczęściej są to testy mające na celu sprawdzenie funkcjonowania danego rozwiązania czy systemu przed ewentualnym zakupem.
Porównywanie z innymi systemami
Jest to metoda wymagająca dostępu do rzetelnych danych porównawczych. A takowych na ogół brakuje. Poza tym może występować też rozbieżność celów między systemem badanym a porównawczym. Nie mówiąc już o tym, że dla większości systemów cele zwykle nie zostały odpowiednio zdefiniowane.
Identyfikacja i analiza punktów krytycznych
Jeśli proces diagnozy wykaże miejsca w systemie, w których nie są realizowane założone cele albo są one realizowane w stopniu niezadowalającym, przechodzi się do kolejnego etapu działań diagnostycznych. Obejmują one wówczas tylko funkcjonowanie obszaru, w którym poprzednia analiza wykazała niemożność osiągnięcia założonych celów.
W przykładzie, który był przytoczony powyżej, za takie miejsca uznać należałoby oczywiście te, które użytkownicy ocenili, przydzielając 1 lub 2 punkty (1- poziom absolutnie niezadowalający; 2 – poziom raczej niezadowalający).
Symulacja
Symulacja – na ogół utożsamiana z symulacją cyfrową – jest metodą wyjątkowo trudną. Wymaga ona dobrej znajomości mechanizmów procesów zachodzących w systemie informacyjnym. Jej zaletą jest to, że pozwala stosunkowo szybko i tanio sprawdzić funkcjonowanie systemu w różnych warunkach. Z tego względu można uznać ją za jedną z technik metody testów.
Jednak różnica polega na tym, że dobrze przygotowany model symulacyjny (szczególnie model komputerowy) pozwala obserwować znacznie większą liczbę sytuacji niż te, które są możliwe do zaaranżowania w trakcie testów. Poza tym symulacja daje też możliwość dostrzeżenia zjawisk, które zachodzą stosunkowo wolno i są z tego względu „niewidoczne” w czasie rzeczywistym. W trakcie symulacji dostrzeżenie wielu oddziaływań, efektów i zachowań staje się łatwiejsze.
Zakończenie
Przyjęcie stopnia realizacji celów systemu jako kryterium diagnostycznego w systemach informacyjnych (głównie dotyczących informacji naukowej) jest jednym ze sposobów podejścia do problemu diagnozowania. Innym podejściem jest opieranie się tylko na ocenie użytkowników. A jeszcze innym – porównanie ze standardami bądź z innymi systemami bez uwzględniania celów.
Rezygnacja z podejścia celowościowego niewątpliwie upraszcza proces diagnozy. Zwykły sondaż – dobrze przygotowany – przeprowadzony wśród użytkowników systemu i badający ich stopień zadowolenia, jest na pewno łatwiejszy i również pozwala uzyskać bardzo cenne dane.
Natomiast główną zaletą podejścia celowościowego jest konieczność precyzyjnego określenia funkcji i celów systemu. To niewątpliwie czyni proces diagnozowania uporządkowanym i obejmującym wszystkie elementy i funkcje systemu. Zapewne jest też ono bardzo przydatne w kierowaniu systemem i w przypadku jego ewentualnej modernizacji. Poza tym pozwala dostrzec wiele innych aspektów funkcjonowania systemu informacyjnego.
Bibliografia
1.
Davis, Gordon B.; Lee, Allen S.; Nickles, Kathryn R.; Chatterjee, Sanjay; Hartung, Robert;Wu, Youlan L. (1992). Diagnosis of an information system failure – a framework and interpretive process. Information & Management, vol.23, issue 5, pp. 293-318.
2.
Heinrich, Lutz J.; Pomberger, Gustav; Haentschel, Irene.(1999). Information systems diagnosis. In: Jože Zupančič, Wita Wojtkowski, W. Gregory Wojtkowski, Stanisław Wrycza eds. Evolution and challenges in system development. Boston: Springer, pp. 187-198.
Małgorzata Jaskowska, Magdalena Wójcik
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Metody i techniki badania użyteczności systemów informacyjno-wyszukiwawczych opartych
o model konwersacyjny
Methods and techniques of testing usability
of information-retrieval systems based on the
conversational model
Słowa kluczowe: badania użyteczności, czatboty, systemy konwersacyjne.
Keywords: chatbot, conversational systems, usability testing.
Abstrakt
Przedmiotem artykułu są systemy informacyjno-wyszukiwawcze oparte o model konwersacyjny, bazujące na mechanizmach tzw. czatbotów (chatbotów) definiowanych tu jako programy komputerowe umożliwiające użytkownikom prowadzenie konwersacji z systemem w języku naturalnym, wykorzystujące zaawansowane rozwiązania w zakresie sztucznej inteligencji. Celem jest określenie metod i technik skutecznej diagnozy tekstowych systemów konwersacyjnych i zaprojektowanie narzędzia służącego ich kompleksowej ewaluacji pod względem funkcjonalności, użyteczności i przyjazności dla użytkowników. Zastosowano metodę analizy i krytyki piśmiennictwa. Następnie w oparciu o analizę popularnych metod oceny użyteczności serwisów internetowych, takich jak: audyt użyteczności, testy funkcjonalne i badania user experience, zaproponowano autorski model badania użyteczności systemów konwersacyjnych dostosowany do specyfiki tego rodzaju serwisów. W rezultacie opracowano pilotażową wersję narzędzia umożliwiającego kompleksową ocenę użyteczności systemów informacyjno-wyszukiwawczych opartych o model konwersacyjny.
Abstract
The subject of the article is information-retrieval systems based on the conversational model, or on chatbot mechanisms, that are defined as computer programs that allow users to communicate with a system using natural language. Special attention was paid to chatbots based on advanced solutions in the field of artificial intelligence. The aim of the paper is to determine the methods and techniques for effective usability testing of conversational systems and to design a tool for their comprehensive evaluation in terms of functionality and user friendliness. The method of analysis and criticism of literature was used to determine the state of research. Then, based on the analysis of the common methods of assessing the usefulness of websites, such as the usability audit, usability tests and user experience questionnaires, authors proposed an original model of usability testing of conversational systems adapted to the specifics of this kind of services. As a result, a pilot version of a tool for chatbot usability tests was developed.
Wstęp
Jednym z kluczowych celów projektowania systemów informacyjno-wyszukiwawczych jest ułatwienie człowiekowi podjęcia interakcji z zasobami informacji zgromadzonymi w formie elektronicznej (Bates red., 2012, s. 47-62). System powinien być tak zaprojektowany, aby użytkownik mógł z niego korzystać w sposób łatwy i intuicyjny. Na tym założeniu opiera się, popularny w ostatnich latach trend związany z projektowaniem systemów informacyjno-wyszukiwawczych bazujących na modelach konwersacyjnych w języku naturalnym (Próchnicka, 2004; Shaikh i in., 2016). Możliwości stworzone przez rozwój nowych technologii informacyjno-komunikacyjnych, w tym szczególnie sztucznej inteligencji, tworzą warunki dla osiągnięcia tego celu, a liczne wdrożenia są świadectwem zapotrzebowania rynkowego. Systemy konwersacyjne zaliczono do dziesięciu strategicznych trendów technologicznych 2017 roku (Gartner’s top 10, 2016). Konieczne wydaje się równoległe wypracowywanie odpowiednich metod i technik diagnozowania, umożliwiających w sposób dostosowany do specyfiki tego rodzaju systemów prowadzenie kompleksowych badań ich funkcjonalności, użyteczności i przyjazności dla użytkowników.
Kluczowe pojęcia
Systemy konwersacyjne reprezentują znaczący etap w rozwoju systemów komputerowych – jest to mianowicie przejście od modelu interakcji, w którym człowiek musi dostosować się do systemu, aby uzyskać oczekiwany efekt (np. używając zrozumiałego dla systemu języka komend), do modelu, w którym system dostosowuje się do odbiorcy i wykazuje proaktywność. Systemy konwersacyjne mogą używać szerokiej palety rodzajów interfejsów jako narzędzi pośredniczących: tekstu, głosu, wzroku, dźwięku, dotyku, ruchu itp.
Czatboty (taka spolszczona wersja będzie stosowana w tekście zamiast terminu anglojęzycznego chatbot) są definiowane jako programy komputerowe, umożliwiające użytkownikom prowadzenie z systemem pisemnej lub ustnej konwersacji imitującej rozmowę międzyludzką. W tym celu wykorzystują język naturalny oraz coraz częściej sztuczną inteligencję. Systemy tego typu charakteryzują się zwykle uproszczonym interfejsem i intuicyjnością obsługi. Dążąc do imitowania sytuacji rozmowy, mogą przybierać formę ucieleśnionych wirtualnych asystentów wyposażanych w imię, nazwisko oraz postać – graficzną reprezentację ich wyglądu (embodied conversational agents). Celem tego rodzaju zabiegów jest wywołanie wrażenia zbliżonego do prowadzenia dialogu z rzeczywistą osobą, a nie z programem komputerowym (Shaikh i in., 2016, s. 3117). Czatbot jest rodzajem inteligentnego agenta, czyli programu komputerowego, który potrafi w pewnym stopniu działać samodzielnie, wykonując zadania zlecone mu przez użytkownika.
Wyjaśnienia wymaga zatem również pojęcie sztucznej inteligencji (artificial intelligence, AI), technologii będącej współcześnie podstawą działania wielu czatbotów. Badania z zakresu sztucznej inteligencji mają charakter interdyscyplinarny i łączą w sobie elementy nauk kognitywnych, automatyki i robotyki, informatyki, neurobiologii i innych nauk (Frankish, Ramsey red., 2014). Celem badań AI jest tworzenie programów komputerowych zdolnych do rozwiązywania niestandardowych problemów, których nie da się ująć prostym algorytmem (Kulkarni, Joshi, 2015). Przykładem zastosowania sztucznej inteligencji w systemach konwersacyjnych może być czatbot Eugene Goostman, który zdaniem niektórych komentatorów jest pierwszym systemem tego typu, który zdał tzw. test Turinga: zdołał przekonać wymagane 30% sędziów biorących udział w eksperymencie, że rozmawiają z człowiekiem, nie z programem komputerowym. Do samego przebiegu eksperymentu zgłaszano wprawdzie pewne zastrzeżenia metodologiczne, niemniej pokazuje on duży potencjał czatbotów dla prowadzenia rozmów w języku naturalnym.
Inne określenia dla czatbotów to: chatterbot, agent konwersacyjny (conversational agent), system konwersacji maszynowej (machine conversation system), system dialogowy (dialogue system), wirtualny agent (virtual agent) (Kuligowska, 2012, s. 37) oraz system dialogowy języka mówionego (spoken language dialogue system) i pisanego (text based).
Zastosowanie czatbotów jest wszechstronne – w rozrywce, edukacji i szkoleniach, opiece nad chorymi i starszymi (AbuShawar, Atwell, 2007a). Wykorzystywane komercyjnie inteligentne agenty tworzą grupy: agentów wyszukiwania (search agents), agentów surfowania (web agents), agentów monitorujących sieć (monitoring agents), agentów zakupów (shop bots), agentów dla webmasterów (webmaster agents) oraz wirtualnych asystentów (virtual assistants) (Kuligowska, 2012, s. 35). Agenty konwersacyjne, będący przedmiotem tego tekstu, należą do ostatniej grupy. Wyczerpującego przeglądu polskich czatbotów dokonała w swoich publikacjach Karolina Kuligowska (Kuligowska, 2012, s. 45–52; Kuligowska, 2015, s. 1–4). Ich wykaz jest też dostępny w wortalu Chatbots.org.
Przedmiot, cel i metodologia badania
Przedmiotem artykułu są systemy informacyjno-wyszukiwawcze oparte o model konwersacyjny, a więc bazujące na mechanizmach tzw. czatbotów, umożliwiające użytkownikom prowadzenie konwersacji z systemem w języku naturalnym za pomocą pisma, wykorzystujące zaawansowane rozwiązania w zakresie sztucznej inteligencji. Celem jest określenie metod i technik umożliwiających skuteczne diagnozowanie systemów konwersacyjnych i zaprojektowanie narzędzia służącego ich kompleksowej ewaluacji pod względem funkcjonalności, użyteczności i przyjazności dla użytkowników. Do celów szczegółowych można zaliczyć:
−
określenie stanu badań nad metodami i technikami badania użyteczności czatbotów,
−
wytypowanie cech wpływających na użyteczność systemów konwersacyjnych i satysfakcję ich użytkowników,
−
zaprojektowanie modelu badania użyteczności systemów konwersacyjnych dostosowanych do ich specyfiki.
W pierwszym etapie naszych badań wykorzystałyśmy metodę analizy i krytyki piśmiennictwa celem ustalenia stanu badań nad metodami i technikami oceny użyteczności systemów konwersacyjnych oraz wytypowania cech wpływających na ich użyteczność i satysfakcję użytkownika. Wyszukiwanie przeprowadziłyśmy za pomocą narzędzia Google Scholar w polskich i zagranicznych bazach danych oraz bezpośrednio w bazach: EBSCO, Springer, de Grutyer, Scopus, Science Direct oraz SSCI bez ograniczeń chronologicznych. Uzupełnieniem materiału badawczego w postaci piśmiennictwa naukowego były wypowiedzi na blogach internetowych osób będących praktykami w zakresie projektowania czatbotów. Bardzo cenna była też konsultacja z autorem czatbota ADA – Kamilem Nicieją.
Następnie w oparciu o analizę popularnych metod oceny użyteczności serwisów internetowych, takich jak: testy funkcjonalne, audyt użyteczności i badania user experience, zaprojektowałyśmy autorski model badania użyteczności systemów konwersacyjnych dostosowany do specyfiki tego rodzaju serwisów, który przetestowałyśmy na funkcjonującym od 2016 r. czatbocie ADA.
Metody i techniki oceny funkcjonalności systemów konwersacyjnych – stan badań
Badania systemów konwersacyjnych sięgają czasów powstawania ich pierwszych wersji. Wspomniany test Turinga zaproponowany został przez Alana Turinga w 1950 roku. Choć jest wykorzystywany do dziś, to systemy konwersacyjne poddawane są współcześnie ocenom z wykorzystaniem bardziej złożonych narzędzi badawczych.
Przeprowadzona analiza literatury przedmiotu pokazała, że problematyka badania użyteczności systemów opartych o model konwersacyjny nie jest tematem często podejmowanym, choć w ostatnich latach widać wzrost zainteresowania tą tematyką. Do najciekawszych artykułów opublikowanych w Polsce należą prace Kuligowskiej, która w latach 2012-2015 opublikowała kilka artykułów na ten temat. Na szczególną uwagę, z punktu widzenia przedmiotu rozważań w tym tekście, zasługują prace: Wirtualny asystent na stronach www (Kuligowska, 2012) oraz Polska konwersacyjna sztuczna inteligencja – 10 lat rozwoju rynku wirtualnych doradców (Kuligowska, 2013). Spośród publikacji anglojęzycznych szczególnie interesujące okazały się teksty: The linguistic accuracy of chatbots: usability from an ESL perspective (Coniam, 2014), Survey on chatbot design techniques in speech conversation systems (Abdul-Kader, Woods, 2015) oraz A survey on chatbot conversational systems (Shaikh i in., 2016).
Przed omówieniem rozpoznanej przez nas metodologii diagnozowania użyteczności czatbotów warto wspomnieć o ciekawej propozycji badania samej tylko ich funkcjonalności, o jakiej piszą na swoich blogach Rob May (2016) i Kamil Nicieja (2016). Koncepcja polega na wykorzystaniu zasad ergonomii kognitywnej i polega na poleceniu do wykonania testerom tego samego zadania za pomocą projektowanego czatbota oraz za pomocą alternatywnej aplikacji. Konstruowanie czatbota jest bardziej wymagające, jeśli zatem w wyniku testu okaże się, że ten sam efekt można osiągnąć za pomocą innych aplikacji, nie warto zadawać sobie trudu. Koncepcja ta znalazła praktyczne odzwierciedlenie w systemie ADA – nie wszystkie planowane w nim funkcje będą realizowane przy użyciu czatbota.
W piśmiennictwie pojawiają się próby tworzenia typologii podejść badawczych wykorzystywanych w ocenie użyteczności czatbotów. Jednym z nich jest podział na metodologie „glas box” i „back box”. Pierwsza grupa, określana „glas box” reprezentuje badania skupiające się na wybranych aspektach funkcjonowania czatbotów: gramatyce, syntaktyce, poprawności odpowiedzi lub też technologiach, na których się opierają: rozpoznawania mowy, przetwarzania tekstu na mowę, rozumienia języka naturalnego, generowania języka naturalnego, języków zapytań w bazie, graficznego obrazowania emocji za pomocą mowy ciała i mimiki twarzy awatara. Na użytek tego rodzaju badań wypracowano kilka ustandaryzowanych narzędzi badawczych, takich jak: Mean Opinion Scale (MOS), Subjective Assessment of Speech System Interfaces (SASSI), Speech User Interface Service Quality (SUISQ) (Lewis, 2016).
Podejście badawcze nazwane „black box” nie skupia się na budowie i składowych czatbotów, ale na ogólnej ocenie satysfakcji użytkownika, uwzględniającej realizację jego potrzeb w komfortowej formie i akceptowalnym czasie (AbuShawar, Atwell, 2007b, s. 89). W badaniach wykorzystuje się dwie grupy ustandaryzowanych kwestionariuszy: post-task questionnaires i poststudy questionnaires. Kwestionariusze z pierwszej grupy służą szybkiej i niewnikliwej ocenie diagnozowanego systemu i są wypełniane przez testerów tuż po wykonaniu przez nich zadań testowych. Można tu zaliczyć: After-scenario Questionnaire (ASQ), Single Ease Question (SEQ); Subjective Mental Effort Question (SMEQ). Do drugiej grupy należą zasadnicze kwestionariusze oceny użyteczności, które są wnikliwe, składają się z minimum kilkunastu pytań ocenianych w skali Lickerta. Są to np.: Questionnaire for User Interface Satisfaction (QUIS), Computer User Satisfaction Inventory (CUSI), Software Usability Measurement Inventory (SUMI), System Usability Scale (SUS), Post Study System Usability Questionnaire (PSSUQ), wypracowane do badania systemów komputerowych każdego typu (niekoniecznie czatbotów) (Lewis, 2002).
Inne kryterium podziału narzędzi badawczych opiera się na obiektywizmie i subiektywizmie oceny. Przykładem modelu uwzględniającego zarówno obiektywne, jak subiektywne kryteria oceny jest zaproponowany w 1997 roku PARADISE (PARAdigm for DIalogue System Evaluation) badania systemów konwersacyjnych opartych na języku mówionym (Walker i in., 1997b). Do miar obiektywnych zalicza się: procent poprawnych odpowiedzi w odniesieniu do zbioru odpowiedzi referencyjnych, sukces transakcji, zakończenie zadania lub jakość rozwiązania, liczbę tur lub wypowiedzi; czas dialogu lub zakończenia zadania; średni czas reakcji użytkownika; średni czas reakcji systemu; częstotliwość diagnostycznych komunikatów o błędach; odsetek „nietrywialnych” wypowiedzi (więcej niż jedno słowo) oraz ich średnią długość (Walker i in., 1997a, s. 1). Wymienione miary oceny obiektywnej są pozyskiwane z systemu automatycznie.
W grupie badań subiektywnych wymagany jest świadomy udział człowieka oceniającego system. Tutaj autorzy uwzględniają następujące kryteria: spójność wypowiedzi generowanych przez system w odniesieniu do kontekstu dialogowego; kooperacyjność wypowiedzi systemowych klasyfikowana na podstawie maksym konwersacyjnych Paula H. Grice’a; poprawność lub częściowa poprawność udzielanych odpowiedzi; zdolność programu do naprawiania błędów wynikających z częściowego rozpoznania lub zrozumienia komunikatów oraz proporcje naprawy błędów wykonanych przez system do błędów naprawionych przez użytkownika; odpowiedniość udzielanych podpowiedzi i stawianych diagnoz; satysfakcja użytkownika rozumiana jako postrzeganie przez niego przydatności systemu, mierzona zwykle przy użyciu wymienionych wyżej kwestionariuszy (QUIS, CUSI, SUMI, SUS, PSSUQ) wyposażonych w skale oceny różnych cech systemu (Walker i in., 1997a). Dobrym przykładem przebiegu procedury badania użyteczności metodami subiektywnymi jest ocena inteligentnego infokiosku MIKI, używającego języka naturalnego i zdolnego do udzielania odpowiedzi na nieformalne ustne zapytania (McCauley i in., 2008), złożona z 7 elementów, które można zakwalifikować do dwóch grup. Pierwszą stanowią czynności i procedury typowe dla badań użyteczności serwisów internetowych, są to: ASQ – kwestionariusz mierzący satysfakcję użytkownika natychmiast po wykonanym zadaniu; PSSUQ – kwestionariusz użyteczności serwisu złożony z 16 stwierdzeń ocenianych w 7-punktowej skali mierzący trzy współczynniki: przydatność systemu, jakość interfejsu i jakość informacji; ocena w 5-punktowej skali poziomu zaobserwowanych problemów użyteczności; wywiad przeprowadzony z uczestnikami na temat problemów zarejestrowanych podczas wykonywania zadań, połączony z demonstracją zarejestrowanych przypadków problemów. Do drugiej grupy można zaliczyć te elementy procedury badawczej, które uwzględniają specyficzne cechy systemów konwersacyjnych: po pierwsze podczas każdego zadania oceniający rejestrowali czy uczestnicy badania używali graficznego czy werbalnego interfejsu użytkownika, czy też obu. Po drugie uczestnicy badania wypełniali kwestionariusz The Usability Scale for Speech Interfaces. Było to badanie użyteczności dla interfejsu mowy złożone z 25 stwierdzeń ocenianych w 7-stopniowej skali.
Przedłożony wyżej przegląd narzędzi badawczych skłania do kilku wniosków. Temat metod i technik badania użyteczności systemów informacyjno-wyszukiwawczych, w ogólnym znaczeniu, jest od wielu lat podejmowany bardzo często. W literaturze przedmiotu można z łatwością odszukać prace poświęcone testom funkcjonalnym, audytom użyteczności czy badaniom user experience, w praktyce wykorzystuje się sprawdzone i ugruntowane narzędzia badawcze (kwestionariusze). Trudno jednak zakładać, że metody i techniki projektowane pod kątem badania użyteczności stron internetowych (Jaskowska, Wójcik, 2014; Jaskowska, Wójcik, 2016), aplikacji mobilnych czy tradycyjnych systemów informacyjno-wyszukiwawczych, takich jak katalogi czy bazy danych, sprawdzą się także przy badaniu specyficznego typu systemów, jakimi są czatboty. Można domniemywać, że wypracowane już metody postępowania mogą posłużyć jako podstawa i punkt wyjścia do opracowania modelu badania użyteczności systemów opartych na konwersacji, wymagają jednak wyraźnych modyfikacji i nie mogą być wprost aplikowane. Dlatego też podejmowane są próby tworzenia narzędzi badawczych, projektowania procedur i modeli oceny czatbotów. Przegląd piśmiennictwa pokazał jednak, że więcej uwagi poświęca się czatbotom z interfejsem mówionym niż tekstowym. Problematyka badania użyteczności czatbotów tekstowych nie jest dostatecznie reprezentowana w literaturze przedmiotu, w tym szczególnie w pracach informatologicznych, dlatego wymaga uzupełnienia w oparciu o szczegółową analizę postulowanej użyteczności tych systemów.
Użyteczność systemów konwersacyjnych
Użyteczność systemów konwersacyjnych definiujemy zgodnie z normą ISO – ISO 9241 jako miarę wydajności, efektywności i satysfakcji użytkownika, z jaką mogą być używane dla osiągnięcia danych celów w określonym kontekście. Przystępując do projektowania narzędzi oceny użyteczności systemów konwersacyjnych, stanęłyśmy przez pytaniem, czy użyteczność ta może być traktowana tożsamo z użytecznością każdego innego produktu informatycznego (serwisu internetowego, aplikacji itd.). Stawiając tezę, że nie, należało w pierwszej kolejności wyłonić wyróżniki użyteczności tych systemów, które mogły następnie posłużyć jako kryteria ich oceny. Źródłami do ich wytypowania były dla nas: heurystyki dla czatbotów zaproponowane przez projektanta tych systemów Kevina Scotta w oparciu o klasyczną już listę Jakoba Nielsena (Scott, 2016), oceny heurystyczne czatbotów opisywane w piśmiennictwie (AbuShawar, Atwell, 2007b; Kuligowska, 2015; Morrissey, Kirakowski, 2013; AbuShawar, Atwell, 2016) oraz przegląd badań wykonany przez autorów modelu PARADISE (Walker i in., 1997a). Analizując powyższe źródła, wyselekcjonowałyśmy wyróżniki użyteczności czatbotów na 7 płaszczyznach: języka, dialogu, statusu i kontroli, nawigacji, zasobu wiedzy, pomocy i awatara. Poniżej znajduje się ich krótka charakterystyka.
Język
Scott odnosi drugą heurystykę Nielsena (zgodność pomiędzy systemem a rzeczywistością) do języka używanego przez czatbota. Jego zdaniem system powinien używać języka użytkowników, ze znanymi im słowami, frazami i pojęciami (Scott, 2016). Potwierdza to Kuligowska: wypowiedzi konstruowane przez czatboty powinny być jasne i spójne oraz osadzone w przyjętym kontekście komunikacyjnym (Kuligowska, 2013). Dla Morrissey i Kirakowskiego czatbot powinien być w kontekście języka skrupulatny, stosować konsekwentnie poprawną gramatykę i ortografię i przyjmować dostosowany do użytkownika styl rozmowy. Cechy te są zdaniem wspomnianych dwojga autorów jednym z czterech kryteriów składających się na naturalność czatbota (Morrissey, Kirakowski, 2013). Scott interpretuje na płaszczyźnie języka również czwartą heurtystykę Nielsena (konsekwencja i trzymanie się standardów): czatboty powinny być wewnętrznie zgodne pod względem językowym; powinny trzymać się jednego stylu języka, czy to naturalnego, czy z linii poleceń. Jednocześnie ważne jest wyraźne i zrozumiałe dla użytkownika rozróżnienie w wierszu poleceń pomiędzy słowami kluczowymi, poleceniami a treścią rozmowy w języku naturalnym (Scott, 2016). Przydatnym elementem systemu uwzględnionym w badaniu Kuligowskiej jest też możliwość przekształcania tekstu pisanego na mowę (Kuligowska, 2013).
Dialog
Zdaniem Morrissey i Kirakowskiego naturalność dialogu z czatbotem jest osiągana poprzez: podtrzymywanie przez czatbot tematu i zadawanie pytań mających z nim związek oraz udzielanie odpowiedzi; podejmowanie przez czatbota inicjatywy w toku rozmowy (np. poprzez sugestie zmiany tematu na powiązany) oraz wykazywanie się znajomością manier np., że jest dobrym nawykiem konwersacji niezbaczanie z tematu rozmowy i utrzymywanie przyjaznego jej stylu oraz rozwijanie relacji z użytkownikiem (Morrissey, Kirakowski, 2013, s. 95). Scott twierdzi, że projektanci czatbotów powinni budować interakcje ze świadomością, że w trakcie eksploatacji czatbotów będą pojawiały się błędy spowodowane niejednoznacznością i nieprecyzyjnością typową dla dialogu ludzkiego. W związku z tym na każdym krytycznym etapie konwersacji należy skłaniać użytkownika do udzielenia potwierdzenia, niezbędnego do właściwego ukierunkowania dalszego przebiegu konwersacji (jest to interpretacja piątej heurystyki Nielsena dotyczącej zapobiegania błędom) (Scott, 2016). Walker z zespołem wymieniają kryteria oceny czatbotów na płaszczyźnie dialogu. Są nimi: spójność wypowiedzi generowanych przez system w odniesieniu do kontekstu dialogowego (może przybierać trzy stany: spójna, niespójna lub niejednoznaczna), kooperacyjność wypowiedzi systemowych klasyfikowana na podstawie maksym konwersacyjnych Grice’a (maksymy: ilości, jakości, relacji i sposobu), poprawność lub częściowa poprawność udzielanych odpowiedzi (Walker i in., 1997a).
Status i kontrola
Widoczność statusu systemu – pierwsza heurystyka Nielsena została przez Scotta zinterpretowana w odniesieniu do czatbotów w ten sposób, że asystent przygotowujący odpowiedź nie powinien pozostawiać użytkownika w zawieszeniu, ale udzielać komunikatów dających wyobrażenie o przewidywanej długości oczekiwania na odpowiedź w rodzaju: „pracuję nad tym, daj mi kilka minut”. Interakcje z botami powinny zapewnić użytkownikowi możliwość wyjścia awaryjnego i powiadamiać użytkownika o poprawnych opcjach postępowania na każdym etapie interakcji (interpretacja trzeciej heurystyki Nielsena – „daj użytkownikowi pełną kontrolę”) (Scott, 2016). Zdaniem Kuligowskiej zasada ta powinna także działać w drugą stronę: – system powinien rozpoznawać sytuacje wykraczające poza jego zasób wiedzy i umieć dyplomatycznie na nie reagować, np. zalecając użytkownikowi dalsze poszukiwania w innym źródle lub prosząc o przeformułowanie wypowiedzi (Kuligowska, 2013, s. 8).
Nawigacja
Szóstą heurystykę Nielsena – „raczej rozpoznawać niż przywoływać” Scott interpretuje w ten sposób, że użytkownik nie powinien być zmuszany do zbytniego obciążania jego pamięci prawidłami rządzącymi czatbotem. Powinien raczej móc rozpoznać znaczenie komunikatów, niż przywoływać je z pamięci. Niezbędne jest przeprowadzanie testów funkcjonalnych, aby na ich podstawie dostosowywać komunikaty do odbiorców. Elastyczność i efektywność używania (siódma heurystyka Nielsena) to priorytety dla projektantów czatbotów. Cechy te powinny być osiągane zarówno w stosunku do początkujących, jak zaawansowanych użytkowników raczej przy użyciu afordancji, czyli cech obiektu, które sugerują jego funkcje, niż podręcznej pomocy (Scott, 2016). Cechy czatbotów związane z nawigacją uwzględnia też w swoich badaniach Kuligowska. Jej zdaniem system powinien mieć wbudowane aktywne linki, otwieranie podstron w tle lub w nowym oknie, przyciski „Wstecz”, „Domek” itd. (Kuligowska, 2013, s. 7).
Zasób wiedzy czatbota
Ósma heurystyka Nielsena, mówiąca o tym, że przeładowanie informacją jest błędem projektowania, w przypadku czatbotów nie może być zdaniem Scotta interpretowana dosłownie. Czatboty powinny działać w oparciu o bazę wiedzy przygotowaną na odpowiedzi także na pytania ogólne, oprócz specjalistycznych. Rozmowa z czatbotem jest bowiem imitacją rozmowy międzyludzkiej, w czasie której pytania typu „co słychać?” są naturalne (Scott, 2016). Wiedza podstawowa i specjalistyczna jest też jednym z kryteriów oceny zaprojektowanej przez Kuligowską: czatbot powinien nie tylko dysponować wysokospecjalistyczną wiedzą o temacie, dla którego został zaprojektowany, ale także ogólnymi wiadomościami o świecie umożliwiającymi nawiązanie naturalnego dialogu z użytkownikiem (Kuligowska, 2013, s. 4-7). Scott podkreśla też w ramach pierwszej heurystyki Nielsena (związek z rzeczywistością), że czatboty powinny być budowane w oparciu o solidną wiedzę o użytkownikach, do których są adresowane (Scott, 2016).
Błędy, pomoc, dokumentacja
Dziewiąta heurystyka Nielsena, mówiąca o tym, że użytkownik musi mieć możliwość rozpoznania, zdiagnozowania i naprawy błędów, znajduje zdaniem Scotta dosłowne odniesienie do czatbotów. Powinny one być projektowane w taki sposób, aby pomagać użytkownikom rozpoznawać i diagnozować błędy, umożliwiając powrót do poprawnego działania programu. Komunikaty o błędach powinny być wyrażone w zwykłym języku, precyzyjnie wskazywać problem i proponować konstruktywne rozwiązania. Komunikat o brzmieniu „błąd 500” jest niepoprawny. Zdaniem Scotta dokumentacja i pomoc (dziesiąta heurystyka Nielsena), pomimo że nie powinny być konieczne do korzystania z programu, winny być jednak dostępne w formie pozwalającej na efektywne z nich korzystanie (Scott, 2016). Kuligowska w swoim badaniu czatbotów uwzględniła jako kryterium oceny obecność elementów pomocniczych: przycisków „Pomoc”, „Info”, „i”, „?”. Zdaniem autorki czatbot powinien również oferować użytkownikowi możliwość pozostawienia informacji zwrotnej – jego opinii na temat działania systemu. Marylin A. Walker z zespołem wymienia następujące kryteria oceny: zdolność programu do naprawiania błędów wynikających z częściowego rozpoznania lub zrozumienia komunikatów; proporcje naprawy błędów wykonanych przez system do błędów naprawionych przez użytkownika; odpowiedniość udzielanych podpowiedzi (dosł. dyrektyw, czyli instrukcji udzielanych przez system użytkownikowi) i stawianych diagnoz (diagnozy to komunikaty, w których system informuje użytkownika, co spowodowało błąd lub dlaczego nie może zrobić tego, o co prosi użytkownik) (Walker i in., 1997a, s. 1-2).
Awatar
Kuligowska, która dokonała oceny polskich wirtualnych asystentów, brała pod uwagę w odniesieniu do cech związanych z awatarem bota następujące kryteria: wygląd, osobowość i opcje personalizacyjne. Dobrze zaprojektowany czatbot powinien mieć jej zdaniem osobowość wyrażoną specyficznym dla niego wyglądem odzwierciedlającym wiek, płeć; mieć imię, zainteresowania, reagować, wyrażając emocje. System może udostępniać użytkownikowi opcje dostosowania podstawowych parametrów do preferencji użytkownika, na przykład w zakresie wyboru płci wirtualnego asystenta. Awatar musi być dobrze widoczny na stronie i wpasowany w jej architekturę (Kuligowska, 2013, s. 8).
Podsumowując, można zauważyć, że duża część spośród proponowanych w literaturze przedmiotu kryteriów oceny heurystycznej bazuje na analogicznych heurystykach opracowanych wcześniej dla oceny funkcjonalności stron internetowych i aplikacji mobilnych. Dają się jednak zauważyć pewne różnice będące efektem specyfiki czatbotów jako systemów. Różnice te widać przede wszystkim w warstwie komunikacji, estetyki i projektu.
Badanie UX systemów konwersacyjnych – model
Analiza literatury przedmiotu ujawniła podejmowane przez innych autorów próby zaadaptowania oceny heurystycznej do potrzeb badania czatbotów. Trudno jednak odszukać dobrze udokumentowane przykłady analogicznych zabiegów mających na celu zaadaptowanie testów funkcjonalnych i badań user experience do badania systemów konwersacyjnych. W związku ze zdiagnozowaną luką, zdecydowałyśmy się na opracowanie adaptacji tych dwóch technik pod kątem badania specyficznego rodzaju systemów konwersacyjnych, jakie stanowią wirtualne asystenty, na przykładzie czatbota ADA służącego do wyszukiwania nieruchomości do wynajęcia. W swojej obecnej odsłonie ADA jest dwujęzycznym czatbotem tekstowym (bez awatara). W trakcie konwersacji pozyskuje informacje o potrzebach i oczekiwaniach przyszłego najemcy, aby następnie porównać je z bazą danych lokali do wynajęcia i przedstawić rozmówcy najkorzystniejszą propozycję. Projekt ma charakter rozwojowy i w przyszłości będzie obejmował większą liczbę funkcji – docelowo ma wspomagać właścicieli lokali w doborze najemcy, kontrolować płatności, stale pozostawać w kontakcie, pełniąc rolę asystentki. W naszej propozycji badania skupiłyśmy się na wyjściowej funkcji ADY, czyli asystentki znajdującej propozycje mieszkań do wynajęcia zgodnych w preferencjami rozmówcy, wywnioskowanymi z przeprowadzonej konwersacji.
Odwołując się do typologii narzędzi badawczych stosowanych w ocenie systemów konwersacyjnych, proponowany przez nas model badania umiejscawiamy w grupie badań „black box” oraz badań subiektywnych. Koncentrujemy się na badaniach z udziałem użytkowników, pomijając badanie oparte na danych pobieranych automatycznie. Nie znaczy to jednak, że w badaniach systemów konwersacyjnych nie należy ich uwzględniać.
Ogólne spojrzenie na proponowaną procedurę badawczą prezentuje rysunek nr 1. Składa się ona z czterech etapów:
1. Zadań wykonywanych przez testerów – czynności obserwowanej, rejestrowanej i cenianej przez organizatorów badania.
2. Krótkiego kwestionariusza pierwszego wrażenia.
3. Kwestionariusza badania użyteczności systemów konwersacyjnych opartych na tekście.
4. Wywiadu.
Rysunek 1. Schemat procedury badawczej
Czynność
Efekt
Czas
−
wykonywanie zadań przez testerów
−
obserwacja
−
rejestrowanie
identyfikacja problemów funkcjonalności (skala)
20 min
kwestionariusz tuż po wykonaniu zadań
sprecyzowanie pierwszych wrażeń
5 min
kwestionariusz użyteczności serwisu
ocena przydatności systemu, jakości interfejsu, jakości informacji, jakości konwersacji
10 min
wywiad połączony z demonstracją sytuacji problemowych zarejestrowanych podczas wykonywania zadań
uzyskanie sugestii poprawy czat-bota
25 min
Źródło: opracowanie własne.
Każdy z etapów badania pełni funkcję uzupełniającą w stosunku do całości, uwzględniając indywidualną partię kryteriów oceny. Kryteria te zostały wymienione w tabelach 1, 2, 3 oraz przy opisie wywiadu.
Zadania
Tabela 1. Propozycja zadań do wykonania przez testerów
Zadania do wykonania przez użytkowników serwisu w trakcie badania
Kryteria oceny
Rozpocznij konwersację z Adą – czy wiesz gdzie kliknąć, co zrobić, jak zacząć?
−
przejrzystość i architektura systemu
−
implementacja czatbota na stronie
−
intuicyjność i łatwość obsługi systemu
Zapytaj o mieszkanie w Krakowie (kupno): 2 pokoje w okolicach pętli Czerwone Maki.
−
sprawność wykonywania zadań
−
baza wiedzy systemu (wiedza specjalistyczna)
−
mechanizmy przetwarzania informacji
Zmień kryteria wyszukiwania np. z kupna na wynajem.
−
elastyczność systemu, zdolność adaptowania się do nowych warunków
Celowo wprowadź błędne lub niespójne dane (np. zapytaj o kwotę odstępnego w przypadku kupna mieszkania).
−
zdolność radzenia sobie z błędami
Okaż zniecierpliwienie, gniew lub rozczarowanie (np. poprzez komunikaty typu „co tak długo?”, „nie o to mi chodziło”).
−
rozwiązywanie sytuacji kryzysowych
Użyj abstrakcyjnych kryteriów wyszukiwania np. mieszkanie dla młodego singla, chcę mieć blisko do dobrego przedszkola itp.
−
komponenty AI
Zadaj pytanie związane z rynkiem nieruchomości, ale nie bezpośrednio związane z mieszkaniem, którego szukasz – np. o średnie ceny mieszkań w Krakowie, o nowe inwestycje na Ruczaju itp.
−
baza wiedzy systemu wykraczająca poza ściśle zdefiniowany zakres (wiedza ogólna)
Zadaj pytanie niezwiązane bezpośrednio z poszukiwaniem mieszkania – np. o pogodę. Zadaj osobiste pytanie lub przeprowadź grzecznościową rozmowę (small talk).
−
naturalność prowadzenia konwersacji
−
osobowość czatbota
Źródło: opracowanie własne.
Każdy zidentyfikowany problem z wykonaniem zadania przez uczestników testów został sklasyfikowany zgodnie ze skalą: 1 = nie zaobserwowano żadnych problemów; 2 = łagodna dezorientacja (czas wykonania zadania <1min); 3 = dezorientacja (czas wykonania zadania >1min); 4 = dezorientacja – korzystanie z dostępnej pomocy; 5 = niepowodzenie zadania lub zaniechanie) (McCauley, 2008).
Kwestionariusz pierwszego wrażenia
Standardowy kwestionariusz ASQ mierzy satysfakcję użytkownika natychmiast po wykonanym zadaniu, składa się z trzech stwierdzeń i 5-punktowej skali oceny każdego (gdzie 1 oznacza reakcję najbardziej negatywną, 5 najbardziej pozytywną).
Tabela 2. Kwestionariusz pierwszego wrażenia
Stwierdzenie
Kryteria oceny
jestem zadowolony z łatwości wykonania tego zadania
łatwość wykonywania zadań
jestem zadowolony z czasu, jaki zajęło mi ukończenie zadania
czas wykonywania zadań
jestem zadowolony ze wsparcia, jakie oferował mi system podczas wykonywania zadania (pomoc, komunikaty, dokumentacja)
pomoc systemu
Źródło: McCauley, Lee; D’Mello, Sidney; Kim, Loe; Polkosky, Melanie (2008). MIKI: a case study of an intelligent kiosk and its usability. In: N. Magnenat-Thalmann, L. C. Jain, N. Ichalkaranje eds. New advances in virtual humans: artificial intelligence environment. Berlin, Heidelberg: Springer, pp. 153–176. http://dx.doi.org/10.1007/978-3-540-79868-2_6 (odczyt: 31.01.2017).)
Kwestionariusz UX dla czatbota ADA
Kwestionariusz użyteczności zaproponowany przez nas do badania użyteczności czatbotów tekstowych uwzględnia wnioski z analizy postulowanej użyteczności tego rodzaju systemów konwersacyjnych.
Tabela 3. Kwestionariusz UX dla czatbota ADA
Kryteria oceny
osobowość czatbota
przyjazna
nieprzyjazna
oryginalna
mało oryginalna
wiarygodna
mało realistyczna
naturalny
sztuczny
język komunikacji systemu
zrozumiały
niezrozumiały
dostosowany do sytuacji
niedostosowany do sytuacji
dostosowany do rozmówcy
niedostosowany do rozmówcy
przebieg konwersacji
płynny
z zakłóceniami
satysfakcjonujący
niesatysfakcjonujący
zakończony sukcesem
zakończony porażką
przydatność
przydatny
nieprzydatny
łatwość obsługi
intuicyjny
mało intuicyjny
łatwy w obsłudze
trudny w obsłudze
Źródło: opracowanie własne na podstawie Laugwitz, Bettina; Held, Theo; Schrepp, Martin (2008). Construction and evaluation of a user experience questionnaire. In: A. Holzinger ed. HCI and usability for education and work. 4th Symposium of the Workgroup Human-Computer Interaction and Usability Engineering of the Austrian Computer Society, USAB 2008, Graz, Austria, November 20-21, 2008. Berlin: Springer, p. 63–76.
Wywiad
Celem uzupełnienia i doprecyzowania wyników uzyskanych w toku testów funkcjonalnych oraz badań kwestionariuszowych, zaprojektowano scenariusz wywiadu połączonego z demonstracją zarejestrowanych podczas wykonywania zadań sytuacji problemowych. W trakcie sesji, zaplanowanej na 25 minut, użytkownik odpowiada na pytania związane z głównymi problemami w zakresie użyteczności czatbota, jakich doświadczył podczas wykonywania praktycznych zadań. Wywiad ma charakter swobodny, a jego każdorazowy przebieg jest warunkowany wynikami poprzednich etapów badania i dostosowany do indywidualnej sytuacji użytkownika. Jak wykazały nasze wcześniejsze badania (Jaskowska, Wójcik, 2016), w konstruowaniu scenariusza wywiadu z respondentami odpowiadającymi na pytania dotyczące użyteczności systemów informacyjnych dobre rezultaty daje przestrzeganie zasad sformułowanych w książce Interviewing users: how to uncover compelling insights (Portigal, 2013). Pytania powinny być stawiane w sposób otwarty i pobudzający interakcję. Przydatne w tym kontekście jest odwoływanie się do wyobraźni badanego (np. „Proszę sobie wyobrazić sytuację, w której…”, „Jak Pan/Pani sobie wyobraża...”) oraz jego osobistych doświadczeń, a tam, gdzie to jest możliwe, należy prosić o demonstrację (np. „Proszę pokazać na stronie miejsce, w którym..”).
Ogólny zestaw pytań może obejmować następujące elementy:
−
Jak Pan/Pani sobie wyobraża idealny system konwersacyjny (idealnego czatbota)?
−
Czy może Pan/Pani porównać testowanego czatbota (ADA) z innymi, których używał/a Pan/Pani poprzednio?
−
Proszę wskazać elementy systemu, które sprawiły Panu/Pani najwięcej trudności.
Pytania szczegółowe mogą obejmować następujące kwestie:
−
Czy przyjęty przez czatbota styl językowy był dostosowany do stylu użytkownika?
−
Czy zadawane przez czatbota pytania podtrzymywały temat rozmowy, czy odbiegały od niego?
−
Czy czatbot wykazywał inicjatywę w rozmowie?
−
Czy czatbot zadawał pytania kontrolne, upewniające, że rozmowa rozwija się w kierunku oczekiwanym przez użytkownika?
−
Czy czatbot udzielał poprawnych odpowiedzi na pytania?
−
Jak reagował czatbot na pytania wykraczające poza zasób jego wiedzy?
−
Czy czatbot posiadał zrozumiały system nawigacji?
−
Czy – sądząc po zadawanych przez czatbota pytaniach – rozpoznawał oczekiwania (potrzeby) użytkownika?
−
Czy system pomocy był dostępny pod ręką w sytuacji potrzeby?
−
Czy system generował pomocne dyrektywy i diagnozy?
−
Czy czatbot pozostawiał użytkownika w niepewności, robiąc przerwy w rozmowie?
−
Czy zachowanie, mowa ciała, mimika awatara były właściwe?
−
Czy system zachęca do wyrażenia opinii na swój temat?
Wnioski
Przeprowadzona analiza literatury przedmiotu pokazała niedostatek publikacji poruszających problematykę metod i technik badania użyteczności systemów opartych o model konwersacyjny w języku pisanym. W literaturze pojawiają się pomysły na badania heurystyczne czatbotów, trudno jednak znaleźć szczegółowe opisy innych procedur badawczych. Zdiagnozowana luka została uzupełniona w toku opracowania autorskiego modelu badania użyteczności systemów konwersacyjnych typu „wirtualny asystent”. W rezultacie przeprowadzonych działań opracowano scenariusz testów funkcjonalnych oraz kwestionariusz UX dostosowany do badania użyteczności czatbotów. W opracowanym modelu, złożonym z czterech komplementarnych komponentów, starano się zwrócić uwagę na elementy systemu związane ze sposobem prowadzenia dialogu z użytkownikiem, łatwością i intuicyjnością obsługi oraz oferowaną bazą wiedzy. Model, choć opracowany na przykładzie wybranego systemu, może być z powodzeniem testowany w badaniach użyteczności podobnych wirtualnych asystentów. Model ma charakter pilotażowy i z założenia ma być rozwijany i udoskonalany w toku jego używania. Dalszych analiz na poziomie teoretycznym wymaga jeszcze kwestia metod i technik badania użyteczności innych, poza wirtualnymi asystentami, typów systemów konwersacyjnych.
Bibliografia
1.
Abdul-Kader, Sameera; Woods, John (2015). Survey on chatbot design techniques in speech conversation systems. International Journal of Advanced Computer Science and Applications, vol. 6, issue 7, pp. 72-80.
2.
AbuShawar, Bayan; Atwell, Eric (2007a). Chatbots: are they really useful? LDV-Forum, vol. 22, issue 1, pp. 29–49. http://www.jlcl.org/2007_Heft1/Bayan_Abu-Shawar_and_Eric_Atwell.pdf (odczyt: 31.01.2017).
3.
AbuShawar, Bayan; Atwell, Eric (2007b). Different measurements metrics to evaluate a chatbot system. In: Bridging the gap: academic and industrial research in dialog technologies workshop proceedings, pp. 89–96. http://dl.acm.org/citation.cfm?id=1556341 (odczyt: 31.01.2017).
4.
AbuShawar, Bayan; Atwell, Eric (2016). Usefulness, localizability, humanness, and language-benefit: additional evaluation criteria for natural language dialogue systems. International Journal of Speech Technology, vol. 19, issue 2, pp. 373–383.
5.
Bates, Marcia J. ed. (2012). Understanding information retrieval systems: management, types, and standards. London; New York: CRC Press. https://books.google.pl/books?id=krkInw_libkC&pg=PT128&dq=information+retrieval+system+design&hl=pl&sa=X&redir_esc=y#v=onepage&q=information%20retrieval%20system%20design&f=false (odczyt: 12.01.2017).
6.
Coniam, David (2014). The linguistic accuracy of chatbots: usability from an ESL perspective. Text & Talk, vol. 34, issue 5, pp. 545-567.
7.
Frankish, Keith; Ramsey, William M. eds. (2014). The cambridge handbook of crtificial intelligence. Cambridge: Cambridge University Press. https://books.google.pl/books?id=RYOYAwAAQBAJ&printsec=frontcover&dq=artificial+intelligence&hl=pl&sa=X&redir_esc=y#v=onepage&q=artificial%20intelligence&f=false (odczyt: 2.01.2017).
8.
Gartner’s top 10 strategic technology trends for 2017 (2016). http://www.gartner.com/smarterwithgartner/gartners-top-10-technology-trends-2017/ (odczyt: 31.01.2017).
9.
Jaskowska, Małgorzata; Wójcik, Magdalena (2014). Funkcjonalność rozproszonego systemu informacji o kierunkach kształcenia w Uniwersytecie Jagiellońskim. Raport z badań. W: Agnieszka Korycińska-Huras red. Procesy i procedury zarządzania na Uniwersytecie Jagiellońskim. Kraków: Biblioteka Jagiellońska, s. 81-136.
10.
Jaskowska, Małgorzata; Wójcik, Magdalena (2015). Metodologia badania użyteczności rozproszonego systemu informacji edukacyjnej uczelni. Praktyka i Teoria Informacji Naukowej i Technicznej, nr 1, s. 17-29.
11.
Kuligowska, Karolina (2012). Wirtualny asystent na stronach www. http://www.kuligowska.com/books.html (odczyt: 31.01.2017).
12.
Kuligowska, Karolina (2013). Polska konwersacyjna sztuczna inteligencja – 10 lat rozwoju rynku wirtualnych doradców. http://www.kuligowska.com/papers/KKuligowska_Polska_konwersacyjna_sztuczna_inteligencja_10_lat_rozwoju_2013.pdf (odczyt: 7.01.2017).
13.
Kuligowska, Karolina (2015). Commercial chatbot: performance evaluation, usability metrics and quality standards of embodied conversional agents. Professionals Center for Business Research, nr 2. https://www.chatbots.org/images/uploads/research_papers/K.KULIGOWSKA_Commercial_chatbot-Warsaw_University_Poland.pdf (odczyt: 12.01.2017).
14.
Kulkarni, Parag; Joshi, Prachi (2015). Artificial intelligence: building intelligent systems. Delhi: PHI Learning Private. https://books.google.pl/books?id=JwW-CAAAQBAJ&printsec=frontcover&dq=artificial+intelligence&hl=pl&sa=X&redir_esc=y#v=onepage&q=artificial%20intelligence&f=false (odczyt: 2.01.2017).
15.
Laugwitz, Bettina; Held, Theo; Schrepp, Martin (2008). Construction and evaluation of a user experience questionnaire. In: Andreas Holzinger ed. HCI and usability for education and work. 4th Symposium of the Workgroup Human-Computer Interaction and Usability Engineering of the Austrian Computer Society, USAB 2008, Graz, Austria, November 20-21, 2008. Berlin: Springer, pp. 63–76.
16.
Lewis, James R. (2002). Psychometric evaluation of the PSSUQ using data from five years of usability studies. International Journal of Human–Computer Interaction, vol. 14, issue 3–4, pp. 463–488 .
17.
Lewis, James R. (2016). Standardized questionnaires for voice interaction design. Voice Interaction Design, vol. 1, issue 1. http://avixd.org/blog/wp-content/uploads/2015/08/Standardized-Questionnaires-for-Voice-Interaction-Design.pdf (odczyt: 31.01.2017).
18.
May, Rob (2016). Cognitive ergonomics and chatbots. http://www.technicallysentient.com/blog/2016/4/1/cognitive-ergonomics-and-chatbots (odczyt: 12.01.2017.).
19.
McCauley, Lee; D’Mello, Sidney; Kim, Loe; Polkosky, Melanie (2008). MIKI: a case study of an intelligent kiosk and its usability. In: Nadia Magnenat-Thalmann, Lakhmi C. Jain, Nikhil Ichalkaranje eds. New advances in virtual humans: artificial intelligence environment. Berlin, Heidelberg: Springer, pp. 153–176. http://dx.doi.org/10.1007/978-3-540-79868-2_6 (odczyt: 31.01.2017).
20.
Morrissey, Kellie; Kirakowski, Jurek (2013). ‘Realness’ in chatbots: establishing quantifiable criteria. In: Masaaki Kurosu ed. Human-computer interaction. Interaction modalities and techniques. 15th International Conference, HCI International 2013, Las Vegas, NV, USA, July 21-26, 2013, Proceedings, Part IV. Berlin, Heidelberg: Springer, pp. 87–96. http://dx.doi.org/10.1007/978-3-642-39330-3_10 (odczyt: 31.01.2017).
21.
Nicieja, Kamil (2016). The chatbot dilemma. https://pilot.co/blog/chatbot-dilemma/ (odczyt: 31.01.2017).
22.
Portigal, Steve (2013). Interviewing users: how to uncover compelling insights. New York: Rosenfeld Media.
23.
Próchnicka, Maria (2004). Człowiek i komputer. Dialogowy model wyszukiwania informacji. Kraków: Wydawnictwo UJ.
24.
Scott, Kevin (2016). Usability heuristics for bots. https://chatbotsmagazine.com/usability-heuristics-for-bots-7075132d2c92 (odczyt: 13.01.2017).
25.
Shaikh, Ayesha; Phalke, Geetanjali; Patil, Pranita; Bhosale, Sangita; Raghatwan Jyoti (2016). A survey on chatbot conversational systems. International Journal of Engineering Science, vol. 6, issue 11, pp. 3117-3119. http://ijesc.org/upload/464758c5f7d1a1cd13085e8a584ec5f3.A%20Survey%20On%20Chatbot%20Conversational%20Systems.pdf (odczyt: 13.01.2017).
26.
Walker, Marylin A.; Litman, Diane J.; Kamm, Candance A.; Abella, Alicia (1997a). Evaluating interactive dialogue systems: extending component evaluation to integrated system evaluation. In: Proceedings of the ACL/EACL workshop on spoken dialogue systems. http://dl.acm.org/citation.cfm?id=1641463 (odczyt: 31.01.2017).
27.
Walker, Marylin A.; Litman, Diane J.; Kamm, Candance A.; Abella, Alicia (1997b). PARADISE: a framework for evaluating spoken dialogue agents. In: Proceedings of the 35th Annual Meeting of the Association of ComputationaI Linguistics, ACL/EACL 97. http://www.aclweb.org/anthology/P97-1035 (odczyt: 31.01.2017).
Jacek Tomaszczyk
Instytut Bibliotekoznawstwa i Informacji Naukowej
Uniwersytet Śląski w Katowicach
Metodyka tworzenia i ewaluacji cyfrowych
narzędzi indywidualnego zarządzania informacją
Methodology of developing and evaluating digital tools for personal information management
Słowa kluczowe: ewaluacja aplikacji, narzędzia cyfrowe, indywidualne zrządzanie informacją, metodyka, tworzenie aplikacji.
Keywords: application development, application evaluation, digital tools, methodology,
personal information management.
Abstrakt
Celem rozważań jest rozpoznanie metodyki tworzenia i diagnozowania narzędzi informatycznych wykorzystywanych w indywidualnym zarządzaniu informacją. Badania opierają się na doświadczeniach autora w użytkowaniu i testowaniu cyfrowych narzędzi indywidualnego zarządzania informacją oraz na systematycznej obserwacji rozwoju funkcjonalności badanych aplikacji pod wpływem sugestii zgłaszanych przez użytkowników na forach internetowych, a także informacji prezentowanych w serwisach gromadzących recenzje użytkowników oprogramowania (G2 Crowd, Capterra, TrustRadius, GetApp). Przeprowadzone badania pozwalają stwierdzić, że w tworzeniu i ewaluacji narzędzi indywidualnego zarządzania informacją często stosuje się podejście praktyczne, polegające na reagowaniu na zgłaszane uwagi i potrzeby użytkowników, które wynikają bezpośrednio z doświadczeń z codziennego użytkowania oprogramowania, a nie są rezultatem formalnie prowadzonych badań w warunkach kontrolowanych.
Abstract
The paper deals with the methodology of developing and evaluating personal information management tools. The research is based on the author’s experience in using and testing IT tools for personal information management, and systematic observation of the
development of applications’ features driven by the suggestions posted by users on
internet forums. Other sources were the online review services: G2 Crowd,
Capterra, TrustRadius GetApp. Research has shown that in the development and evaluation of
personal information management tools, there is often a practical approach to responding to user feedback and needs that arises directly from the everyday software experience, rather than the result of formally conducted research under controlled conditions.
Aktywne życie w cyfrowym świecie wymaga sprawnej interakcji z coraz większą ilością informacji. Najczęściej są to informacje pochodzące z różnych źródeł, o różnych formatach, organizowane, przetwarzane i udostępniane w rozmaitych celach i kontekstach. Informacją zajmujemy się zarówno w celach zawodowych, korzystając z firmowego oprogramowania udostępnionego przez pracodawcę, jak i na własny użytek, instalując na komputerach domowych, tabletach i telefonach komórkowych oprogramowanie do indywidualnego zarządzania informacją.
Indywidualne zarządzanie informacją lub zarządzanie informacją własną (personal information management, PIM) to dziedzina praktycznej działalności człowieka, a także obszar badań naukowych poświęcony procesom, narzędziom i zachowaniom informacyjnym użytkowników, którzy gromadzą, organizują, przechowują, wyszukują i wykorzystują do własnych celów różnorodną informację pochodzącą z dokumentów tradycyjnych i elektronicznych, stron internetowych, serwisów społecznościowych, poczty elektronicznej oraz bezpośrednich kontaktów osobistych. Indywidualne zarządzanie informacją własną obejmuje również fizyczną przestrzeń wraz z tradycyjnymi nośnikami informacji oraz przedmiotami służącymi do jej organizacji – segregatorami, teczkami, skoroszytami, fiszkami itp. Niniejszy artykuł poświęcony jest wyłącznie cyfrowym narzędziom zarządzania informacją własną. Cechą charakterystyczną indywidualnego zarządzania informacją jest wielokontekstowość, związana z różnymi rolami lub funkcjami, jakie człowiek pełni w życiu zawodowym i osobistym: pracownika, rodzica, opiekuna, członka organizacji, przyjaciela itd. Informacja własna, którą tworzymy, gromadzimy i wykorzystujemy, pełniąc te obowiązki, nie ogranicza się do jednej dziedziny czy tematu, ale jest niejako poddziałem wspólnym lub fasetą zbioru informacyjnego, z którego korzystamy realizując różne projekty i zadania, czy też jednym z wymiarów przestrzeni informacyjnej, w której żyjemy. Informacja własna to informacja, którą (Jones, 2008, s. 34):
−
sterujemy lub posiadamy: maile, pliki na dysku,
−
jest na nasz temat (o nas): historia kredytowa, historia wyszukiwania w Internecie zapisana w przeglądarce, lista wypożyczonych książek,
−
skierowano do nas: rozmowy telefoniczne, bezpośrednie kontakty osobiste, spersonalizowane reklamy,
−
została przeze nas wysłana lub opublikowana: maile, własne strony internetowe, opublikowane artykuły,
−
była już w naszym posiadaniu: zwrócone do biblioteki książki, przeglądnięte strony internetowe, odsłuchane podcasty,
−
uważamy za relewantną: informacja z wymienionych wcześniej kategorii oraz potencjalna informacja, do której jeszcze nie dotarliśmy.
Każdy człowiek dysponuje informacją własną, dlatego istnieje realna potrzeba, aczkolwiek czasem nie w pełni uświadomiona, zarządzania nią w różnych celach – zwiększenia efektywności pracy, zwiększenia bezpieczeństwa przechowywanych informacji czy stworzenia mentalnego ładu zapewniającego poczucie kontroli nad otoczeniem informacyjnym (potrzeba psychiczna). Indywidualne zrządzanie informacją od kilkunastu lat jest przedmiotem badań podstawowych, stosowanych i rozwojowych w obszarze zarządzania informacją i wiedzą. Badania te mają na celu opracowanie skutecznych i ekonomicznych narzędzi, procedur, metod oraz strategii zarządzania informacją własną. Główne wyzwanie dla naukowców stanowi różnorodność, fragmentaryzacja i ilość informacji, a także bardzo zróżnicowane potrzeby użytkowników, zależne od trudnej do precyzyjnego określenia i zbadania osobistej przestrzeni informacyjnej, która wchodzi w interakcję z osobistymi przestrzeniami informacyjnymi innych osób, organizacji itp. (Jones, Teevan, 2007, s. 11; Jones, 2015, s. 129). Badacze napotykają tu też problem, który wynika z samej natury badanego przedmiotu – informacji własnej – mocno zindywidualizowanej i nierozerwalnie związanej z trybem pracy i stylem życia użytkowników. Kojarzona często z informacją osobistą, z czymś intymnym, z czymś co bezpieczniej trzymać w tajemnicy, informacja własna staje się trudno dostępnym materiałem do badań. Tradycyjne badania laboratoryjne (eksperymentalne) dostarczają naukowcom informacji o tym, jak użytkownicy radzą sobie z danym narzędziem (głównie interfejsem oprogramowania) w zaplanowanych, pozbawionych elementu osobistego warunkach, ale nie pokazują, jak użytkownicy wykorzystują lub będą wykorzystywać to narzędzie do realizacji zadań w ich własnej przestrzeni informacyjnej. Na przestrzeń tę składają się m.in. źródła informacji (w tym także miejsca rzeczywiste i wirtualne, z których informacja dociera do użytkowników – otoczenie w pracy, korporacyjne systemy komunikacji wewnętrznej, poczta elektroniczna itp.) oraz informacje gromadzone w folderach i aplikacjach instalowanych na osobistych oraz służbowych komputerach i smartfonach. Każdy użytkownik tworzy własną strukturę folderów odzwierciedlającą jego mentalny model postrzegania wybranych elementów i procesów w przestrzeni informacyjnej, w której funkcjonuje.
Badania nad indywidualnym zarządzaniem informacją skupiają się wokół trzech tematów:
−
potrzeb i zachowań użytkowników (np. Bergman, 2013; Trullemans, Signer, 2014; Jones i in., 2015),
−
bezpieczeństwa i prywatności informacji (np. Haddadi, Mortier, Hand, 2012; Abiteboul, André, Kaplan, 2015; Öğütçü, Testik, Chouseinoglou, 2016),
−
tworzenia prototypów narzędzi i systemów wspierających zarządzanie informacją własną (np. Karger, Quan, 2004; Elsweiler, Ruthven, Jones, 2007; Dumais i in., 2016).
Naukowcy przede wszystkim starają się dociec, jak użytkownicy zarządzają informacją za pomocą programów komputerowych (desktopowych, webowych, mobilnych), natomiast trudno znaleźć prace poświęcone metodyce tworzenia i ewaluacji cyfrowych narzędzi indywidualnego zarządzania informacją. Wynika to zapewne z tego, że istnieje wiele kategorii oprogramowania, a w każdej z nich jest od kilkunastu do kilkudziesięciu programów. Ponadto niemal każda aplikacja może być wykorzystywana na różne sposoby w zależności od indywidualnych potrzeb, umiejętności (znajomości funkcji programu), a także kreatywności użytkownika. Do najważniejszych kategorii cyfrowych narzędzi zarządzania informacją własną można zaliczyć:
−
proste notatniki (np. aplikacja Notatnik w systemie Windows, Simplenote, Sticky Notes),
−
zaawansowane programy do zarządzania notatkami (np. Google Keep, Evernote, OneNote),
−
książki teleadresowe, menedżery kontaktów (np. książka adresowa w programie Outlook, Kontakt+),
−
kalendarze (np. kalendarze własne urządzeń mobilnych, Google Calendar, iCalendar),
−
menedżery zadań (np. Wunderlist, Nozbe, AnyDo, Todoist),
−
programy do organizowania informacji (notatek i list zadań) w postaci hierarchicznej (konspektowej), tzw. outliners (np. Workflowy, Dynalist, Checkvist, Moo.do),
−
programy do pracy grupowej i zarządzania projektami (np. Trello, Asana, Basecamp, Wrike, Slack)*,1
−
dyski w chmurze (np. Dropbox, OneDrive, Google Drive).
Wymienione kategorie nie są rozłączne. Wiele aplikacji posiada cechy programów należących do różnych kategorii, np. programy do zarządzania notatkami mogą pełnić także funkcje menedżerów zadań, gromadzić informacje w formie konspektów oraz tworzyć wpisy w kalendarzu, a kalendarze mogą służyć jako menedżery zdań w postaci list rzeczy do zrobienia (to-do lists).
Metodyka projektowania oprogramowania do indywidualnego zarządzania informacją podlega tym samym ogólnym zasadom tworzenia oprogramowania, jednak ma też swoją specyfikę. Istnieje wiele metod i modeli tworzenia oprogramowania (software development process), m.in.: model kaskadowy (waterfall model), model przyrostowy (iterative and incremental development), model prototypowy (prototyping), model spiralny (spiral development), metodyka Agile (agile software development) (Jamsheer, 2017). Za najbardziej znane można uznać model kaskadowy oraz bardzo często stosowane obecnie podejście Agile.
Tradycyjny model kaskadowy zarządzania projektami, zaproponowany przez Winstona W. Royce’a w 1970 r., opiera się na schemacie: planowanie, analiza, projekt, implementacja, testowanie, wdrożenie, utrzymanie (pielęgnacja, obsługa). Sprawdza się w wielu dziedzinach – budownictwie, produkcji oraz usługach i procesach charakteryzujących się powtarzalnością. Wykorzystuje się go również w wytwarzaniu oprogramowania, ale jego zastosowanie jest ograniczone do sytuacji, gdy od samego początku są precyzyjnie określone wszystkie wymagania, jakie powinien spełniać program. Przejście do kolejnej fazy projektowania może nastąpić wyłącznie po ukończeniu poprzedniej fazy, a testowanie odbywa się dopiero po implementacji. Takie działanie jest skuteczne, gdy program projektuje się na zlecenie konkretnego klienta, który, zamawiając oprogramowanie, jasno określa jego specyfikację. Aplikacje do zarządzania informacją własną jednak rzadko kiedy tworzy się na indywidualne zamówienie – są to na ogół programy, które pisze się z przeznaczeniem dla jak największego grona odbiorców, co uniemożliwia precyzyjną
*Wspomniano tę kategorię, ponieważ mimo iż jest to oprogramowanie przeznaczone głównie do pracy grupowej w małych i dużych zespołach, istnieje możliwość wykorzystania go do indywidualnego zarządzania informacją. Korzystają z niego użytkownicy, którzy chcą zarządzać osobistą przestrzenią informacyjną za pomocą jak najmniejszej liczby aplikacji, minimalizując w ten sposób fragmentaryzację własnych zasobów informacyjnych oraz ograniczając dylematy związane z wyborem narzędzi.
identyfikację potrzeb i wymagań przed rozpoczęciem kodowania. Chociaż producenci oprogramowania są otwarci na propozycje indywidualnych projektów (np. Kanbanchi – http://www.kanbanchi.com/customisation), ale wówczas należy się liczyć z wysokimi kosztami projektu i wdrożenia.
Alternatywą dla tradycyjnego podejścia opartego na modelu kaskadowym jest metodyka Agile (programowanie zwinne), opracowana w 2001 r. Obejmuje m.in. takie metody, jak Scrum, Kanban, eXtreme Programming, Lean software development. Fundamentem Agile są potrzeby klientów, o czym ma świadczyć manifest programowania zwinnego, w którym napisano:
„Odkrywamy nowe metody programowania dzięki praktyce w programowaniu
i wspieraniu w nim innych.
W wyniku naszej pracy, zaczęliśmy bardziej cenić:
Ludzi i interakcje od procesów i narzędzi
Działające oprogramowanie od szczegółowej dokumentacji
Współpracę z klientem od negocjacji umów
Reagowanie na zmiany od realizacji założonego planu.
Oznacza to, że elementy wypisane po prawej są wartościowe,
ale większą wartość mają dla nas te, które wypisano po lewej.” (Manifest)
Dzięki powszechnemu wykorzystaniu technologii informacyjno-komunikacyjnych o wiele łatwiej i efektywniej projektuje się aplikacje metodą Agile, ponieważ klienci (użytkownicy) są w stałym kontakcie z twórcą oprogramowania, co umożliwia zaspokajanie ich zmiennych potrzeb i wymagań, częste prezentowanie roboczych wersji programu oraz ciągłe dostarczania oprogramowania (poprawki, aktualizacje, zwiększanie funkcjonalności). Te wszystkie cechy sprawiają, że metodyka Agile o wiele lepiej sprawdza się w projektowaniu narzędzi indywidualnego zarządzania informacją niż model kaskadowy. Jednak, jak już zostało wspomniane, znaczna część programów do zarządzania informacją własną nie jest tworzona dla konkretnego klienta czy wąskiej grupy klientów, lecz dla dziesiątek lub nawet setek tysięcy użytkowników, dlatego w procesie projektowania używa się różnych metod (łączy się metody), a także tworzy się oprogramowanie w mniej sformalizowany sposób, reagując na bieżąco na to, co dzieje się w projekcie.
Większość narzędzi, o których mowa w tym rozdziale, została stworzona przez małe (2-4 osobowe) zespoły programistów (poza oczywiście produktami dużych korporacji, takich jak Google, Microsoft, Apple), nie na zamówienie konkretnego klienta, ale dla szerszego, nieprecyzyjnie zdefiniowanego grona odbiorców. Informacje o historii powstania programów mniejszych firm na ogół są dostępne na ich stronach WWW w sekcjach About i blogach firmowych, a także w wywiadach publikowanych w różnych serwisach poświęconych narzędziom i metodom zarządzania informacją). Źródłami pomysłów na aplikacje były m.in.:
−
rozwiązanie własnych problemów z zrządzaniem informacją (np. Workflowy, Gingko),
−
realizacja znanej idei w nowoczesnej, komputerowej formie (np. aplikacje Trello i Kanbanchi wykorzystujące kanban – opracowaną w latach pięćdziesiątych w Japonii metodę sterowania produkcją),
−
chęć stworzenia lepszego od istniejącego już programu (np. Dynalist i Moo.do inspirowane przez Workflowy),
−
wizja aplikacji stanowiącej ujednolicaną przestrzeń roboczą (unified workspace), łączącą funkcjonalność różnych narzędzi, m.in. menedżera informacji, poczty elektronicznej, komunikatora, dysku w chmurze (np. Notion.so, Moo.do).
Można zaobserwować, że oprogramowanie do indywidualnego zarządzanie informacją często powstają w start-upach – tymczasowych, niewielkich firmach lub organizacjach poszukujących modelu biznesowego na dalszy rozwój produktu i przedsiębiorstwa. Cechują je na ogół niskie koszty rozpoczęcia i początkowego prowadzenia działalności, ale za to wyższe ryzyko niepowodzenia biznesu w porównaniu do standardowych przedsięwzięć. Niski kapitał początkowy, zwiększone ryzyko i brak szczegółowo określonych wymagań klienta (aplikacje tej kategorii zwykle nie są tworzone na indywidualne zamówienia) w znacznym stopniu determinują sposób, w jaki rozwijane jest oprogramowanie.
Aby użytkownicy, korzystając z początkowej wersji programu, który udostępniony po raz pierwszy pokazuje ideę, na której się opiera, i wyposażony jest tylko w kilka podstawowych funkcji, zechcieli za niego w przyszłości zapłacić, program będzie musiał spełniać ich oczekiwania. Nie są to jedna oczekiwania pojedynczego klienta, które można byłoby łatwo i szybko spełnić. To wymagania tysięcy osób z różnych środowisk, zainteresowanych otrzymaniem oprogramowania w jak największym stopniu spełniającego ich indywidualne potrzeby. W takim przypadku prowadzenie kontrolowanych badań na użytkownikach byłoby zbyt kosztowne i prawdopodobnie mało efektywne. Potrzebne jest tutaj inne podejście, które opiera się na ustaleniu pewnego konsensusowego zbioru potrzeb użytkowników, aby producent oprogramowania mógł zaprojektować i wdrożyć funkcje programu, które te potrzeby spełnią.
Na podstawie własnych doświadczeń z praktycznego użytkowania kilkunastu programów (między innymi: Wunderlist, Any.do, Producteeve, TickTick, Nirvana, Nozbe, Worklfowy, Dynalist, Moo.do, Checkvist, Ginko, Trello, Kanbanchi, Notion.so, AllMyNotes Organizer), niemal od początku ich powstania przez dziesiątki kolejnych aktualizacji, oraz aktywnego uczestnictwa w dyskusjach z producentami tych narzędzi, zaobserwowałem, że główną metodą projektowania, rozwoju i testowania tego typu oprogramowania jest stały, otwarty kontakt z użytkownikami. Istotą tego kontaktu jest przekazywanie twórcom aplikacji uwag i informacji na temat błędów w działaniu aplikacji (error/problem reports) oraz sugerowanie nowych funkcji (feature requests/suggestions). Projektowanie przeplata się z oceną – stałe diagnozowanie staje się elementem procesu tworzenia. Skuteczność takiej komunikacji zależy od interaktywnego systemu, za pomocą którego użytkownicy kontaktują się z producentami. Ta interaktywność odgrywa tu istotną rolę, ponieważ zachęca użytkowników do dzielenia się praktyczną wiedzą i osobistymi doświadczeniami z twórcami aplikacji, którzy dzięki temu otrzymują pożądaną informację zwrotną. Użytkownicy zgłaszają błędy napotkane podczas codziennej pracy z oprogramowaniem, przez co przekazują twórcom kluczowe, niezwykle cenne, a jednocześnie bezpłatne informacje (badania laboratoryjne generują jednak spore koszty), które przyczyniają się do szybszego eliminowania błędów i rozwoju lepszego oprogramowania. Dlatego programiści udostępniają użytkownikom kolejne wersje (aktualizacje) programów, na bieżąco informują o postępach w rozwoju oprogramowania oraz planowanych działaniach.
Komunikacja z użytkownikami pozwala również dokładniej poznać ich potrzeby. Twórcy oprogramowania zbierają „zamówienia” (propozycje, sugestie, prośby) od użytkowników na nowe funkcje aplikacji i poddają je pod publiczne głosowanie na swoich stronach internetowych. Dzięki głosowaniu twórcy oprogramowania uzyskują informację o tym, co jest ważne dla większości użytkowników i mogą zająć się tym w pierwszej kolejności. Publiczne prezentowanie wyników głosowania sprawia, że użytkownicy, którzy głosowali na mniej popularne opcje, nie mają pretensji do producentów o ignorowanie ich potrzeb. Wiedzą, że priorytety są ustalane przez głosowanie (trudno byłoby tworzyć w aplikacji każdą funkcję, o którą proszą tylko pojedynczy użytkownicy, gdyż praca włożona w jej zaprogramowanie byłaby nieopłacalna), a praca nad kolejnymi funkcjami rozpocznie się po wprowadzeniu i przetestowaniu opcji programu uznanych za niezbędne przez większość użytkowników. Testy oprogramowania najpierw przeprowadzają programiści, a potem grupa użytkowników, zwykle ochotników, którzy chętnie zapoznają się z nową funkcjonalnością programu i przekazują twórcom swoje opinie. Następny etap to udostępnienie aplikacji wszystkim użytkownikom, czyli największy i najważniejszy test oprogramowania. Zgłoszone błędy i uwagi stanowią punkt wyjścia do kolejnego cyklu zmian i testów.
Efektywnej komunikacji między programistami a użytkownikami sprzyja jawność i wizualizacja interakcji między tymi dwoma grupami interesariuszy. Twórcy oprogramowania posługują się kilkoma narzędziami ułatwiającymi interakcję z użytkownikami. Oprócz poczty elektronicznej, formularzy na stronach WWW, forów internetowych tworzą informację wizualną, np. za pomocą tablic kanban, prezentującą plany rozwoju aplikacji i etapy realizacji tych planów (development roadmap) (il. 1).
Ilustracja 1. Trello – harmonogram prac
Źródło: https://trello.com/b/nC8QJJoZ/trello-development-roadmap (odczyt: 01.05.2017)
Tablice kanban jednocześnie mogą pokazywać harmonogram prac i pełnić funkcję narzędzia do głosowania (liczbę głosów reprezentuje liczba umieszczona przy symbolu kciuka) na nowe funkcje programu (il. 2).
Ilustracja 2. Dynalist – harmonogram prac
Źródło: https://trello.com/b/z0HxDPNo/dynalist-roadmap (odczyt: 01.05.2017)
Ilustracja 3 prezentuje szczegóły pojedynczej karty (zadania) z tablicy kanban, na której znajduje się opcja „Głosuj”.
Ilustracja 3. Dynalist – głosowanie
Źródło: https://trello.com/c/vslYn5gN/19-send-email-to-dynalist-to-add-items (odczyt: 01.05.2017)
Głosy użytkowników w sprawie nowych funkcji aplikacji mogą być zbierane za pomocą różnych narzędzi. Jednym z częściej używanych programów jest UserVoice (http://www.uservoice.com), z którego korzystają m.in. twórcy Wunderlist (il. 4) i Moo.do (il. 5), ale także np. Microsoft w celu ulepszania swoich produktów (Microsoft application, 2017).
Ilustracja 4. Wunderlist – głosowanie
Źródło: https://wunderlist.uservoice.com/forums/136230-wunderlist-feature-requests (odczyt: 01.05.2017)
Ilustracja 5. Moo.do – głosowanie
Źródło: https://feedback.moo.do/forums/274238-general/filters/top (odczyt: 01.05.2017)
W literaturze naukowej trudno znaleźć informacje na temat diagnostyki konkretnych narzędzi zarządzania informacją własną. Odnoszę wrażenie, że to zagadnienie zostało uznane za mało naukowe i niewarte głębszej refleksji metodologicznej. Można się temu dziwić, gdyż pomimo wspominanych trudności badawczych, wydaje się, że narzędzia indywidualnego zarządzania informacją to dobry (jeśli poprawnie wybierze się aplikacje do porównania) przedmiot badań np. benchmarkingowych.
Brak literatury naukowej czy fachowej na temat diagnostyki narzędzi zarządzania informacją własną nie oznacza, że taka ewaluacja nie ma miejsca. Ocena jakości i funkcjonalności oprogramowania ma charakter praktyczny i indywidualny – aplikacje są oceniania przez użytkowników na podstawie własnych kryteriów przydatności. Użytkownicy oceniają przydatność narzędzi, zwracając uwagę głównie na ich rzeczywistą funkcjonalność, tzn. opinia użytkowników uwarunkowana jest stopniem zadowolenia z efektywności działania funkcji, z których na co dzień korzystają. Użytkownicy najczęściej wyrażają swoje opinie na forach internetowych prowadzonych m.in. przez producentów i sprzedawców oprogramowania.
Użytkownicy wyrażają swoje opinie na temat aplikacji, z których korzystają, także w niezależnych serwisach poświęconych diagnozowaniu różnego typu oprogramowania. Do największych serwisów ewaluacyjnych należą: G2 Crowd (http://www.g2crowd.com), Capterra (http://www.capterra.com), TrustRadius (http://www.trustradius.com), GetApp (http://www.getapp.com). Istotą działania takich serwisów jest gromadzenie odpowiedzi użytkowników na pytania dotyczące różnych aspektów aplikacji (cech, funkcji, możliwości zastosowania) i publikowanie tych informacji w formie ustrukturyzowanych podsumowań, które można uznać za recenzje programów. Wymienione serwisy mają różne zestawy pytań i kryteriów ewaluacji, gromadząc od kilkudziesięciu do kilkuset recenzji każdej aplikacji (w sumie kilkaset tysięcy opisów). Wśród kryteriów ewaluacyjnych, poza ogólną oceną jakości oprogramowania, znajdują się m.in.: zalety, wady, łatwość instalacji, obsługi i administracji, cechy i funkcje, obsługa klienta, stosunek jakości do ceny, wymagania sprzętowe i systemowe, obszary zastosowania, prawdopodobieństwo rekomendacji programu innym osobom. Oceny dokonuje się na skalach o różnych zakresach (w zależności od serwisu są to skale 1-5, 1-7 lub 1-10) lub w sposób opisowy. Użytkownicy oceniający aplikacje dostarczają także informacji na temat rodzaju wykonywanych zadań, celu, czasu i częstotliwości korzystania z programu, branży, w której go wykorzystują, wielkości przedsiębiorstwa oraz doświadczeń (porównań) z innymi aplikacjami. Wszystkie te informacje mają na celu pomóc osobom poszukającym oprogramowania w wyborze produktu, który najlepiej spełni ich indywidualne wymagania.
Udostępniane w serwisach recenzje są przydatne nie tylko dla potencjalnych użytkowników aplikacji, ale także dla producentów oprogramowania poddawanego recenzjom. Tysiące ocen, opinii, uwag i sugestii są wartościowym źródłem wiedzy dla twórców oprogramowania, szczególnie że serwisy ewaluacyjne stosują weryfikację użytkowników piszących recenzje, np. przez żądanie przesłania zrzutu ekranu pokazującego, że użytkownik jest zalogowany w aplikacji, którą recenzuje, co ma być potwierdzeniem, że faktycznie z niej korzysta. Ten szczególny sposób badania użytkowników dostarcza informacji o funkcjonalności aplikacji, ich wadach, niedociągnięciach i błędach w działaniu, ale także – co niezwykle cenne – ujawnia fragment osobistej przestrzeni informacyjnej użytkowników, pokazując środowisko ich pracy, typ najczęściej wykonywany zadań oraz oczekiwania, jakie mają wobec programów komputerowych. Producenci uzyskują w ten sposób wiedzę na temat zachowań i potrzeb informacyjnych użytkowników, a także dane o konkurencyjnych programach, dzięki czemu mogą udoskonalać swoje produkty oraz przewidywać potrzeby i trendy rynku oprogramowania.
Biorąc pod uwagę nieustannie rosnącą ilość informacji oraz potrzeby związane z jej zarządzaniem w przenikających się kontekstach informacyjnych, tworzonych przez różne środowiska pracy oraz umiejętności i nawyki użytkowników, można przypuszczać, że badania nad indywidualnym zarządzaniem informacją będą intensyfikowane w celu opracowania narzędzi umożliwiających kreowanie dobrze zorganizowanych osobistych przestrzeni informacyjnych. Obecnie stosowaną praktyczną metodę tworzenia aplikacji można byłoby ulepszyć, wspierając ją wynikami badań rzeczywistych, indywidualnych potrzeb informacyjnych przełożonych na funkcje oprogramowania, których stworzeniem zajęliby się programiści.
Bibliografia
1.
Abiteboul, Serge; André, Benjamin; Kaplan, Daniel (2015). Managing your digital life. Communications of the ACM, vol. 58, issue 5, pp. 32-35.
2.
Bergman, Ofer (2013). Variables for personal information management research. ASLIB Proceedings: New Information Perspectives, vol. 65, issue 5, pp. 464-483.
3.
Dumais, Susan; Cutrell, Edward; Cadiz, Jonathan; Jancke, Gavin; Sarin, Raman; Robbins, Daniel (2016). Stuff I’ve seen: a system for personal information retrieval and re-use. ACM SIGIR Forum, vol. 49, issue 2, pp. 28-35.
4.
Elsweiler, David; Ruthven, Ian; Jones, Christopher (2007). Towards memory supporting personal information management tools. Journal of the American Society for Information Science and Technology, vol. 58, issue 7, pp. 924–946.
5.
Haddadi, Hamed; Mortier, Richard; Hand, Steven (2012). Privacy analytics. ACM SIGCOMM Computer Communication Review, vol. 42, issue 2, pp. 94-98.
6.
Jamsheer, Kandoth (2017). 12 best software development methodologies with pros and cons http://acodez.in/12-best-software-development-methodologies-pros-cons (odczyt: 29.04.2017).
7.
Jones, William (2008). Keeping found things found. Amsterdam: Morgan Kaufmann Publishers.
8.
Jones, William (2015). Building a better world with our information: the future of personal information management. Synthesis lectures on information concepts, retrieval, and services. Part 3. Morgan & Claypool Publishers.
9.
Jones, William; Capra, Robert; Diekema, Anna; Teevan, Jaime; Pérez-Quiñones, Manuel; Dinneen, Jesse, David; Hemminger, Bradley (2015). For telling the present: using the Delphi method to understand personal information management practices. In: Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, pp. 3513-3522.
10.
Jones, William; Teevan, Jaime (2007). Personal information management. Seattle, London: University of Washington Press.
11.
Karger, David, Ron; Quan, Dennis (2004). Haystack: a user interface for creating, browsing, and organizing arbitrary semistructured information. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York: ACM Press, pp. 777–778.
12.
Manifest programowania zwinnego. http://agilemanifesto.org/iso/pl/manifesto.html (odczyt: 20.06.2017).
13.
Microsoft application lifecycle management (2017).
https://blogs.msdn.microsoft.com/visualstudioalm/2015/10/08/how-we-use-user-voice-to-make-a-better-product/ (odczyt: 20.06.2017).
14.
Öğütçü, Gizem; Testik, Özlem, Müge; Chouseinoglou, Oumout (2016). Analysis of personal information security behavior and awareness. Computers & Security, issue 56, pp. 83-93.
15.
Trullemans, Sandra; Signer, Beat (2014). From user needs to opportunities in personal information management: a case study on organisational strategies in cross-media information spaces. In: Proceedings of the 14th ACM/IEEE-CS Joint Conference on Digital Libraries, pp. 87-96.
Marek Nahotko
Instytut Informacji Naukowej i Bibliotekoznawstwa,
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Diagnostyka poziomu akceptacji publikacji
elektronicznych z wykorzystaniem metodologii TAM (Technology Acceptance Model)
Acceptance level diagnostics of electronic
publications using the TAM (Technology Acceptance Model) methodology
Słowa kluczowe: akceptacja technologii informacyjnej, książka elektroniczna, TAM.
Keywords: electronic book, information technology acceptance, TAM.
Abstrakt
Szybki, ale nierównomierny rozwój publikacji elektronicznych wywołuje pytanie badawcze o tempo ich przyszłego rozwoju, które zależy od poziomu akceptacji ich użytkowników. Celem jest przedstawienie prognoz rozwoju książki elektronicznej w oparciu o opinie studentów. Dla uzyskania informacji o intencji behawioralnej studentów w kierunku stosowania książki elektronicznej zastosowano narzędzie typu TAM (Technology Acceptance Model), gdzie przyjmuje się, że wykorzystanie nowej technologii może być wyjaśnione lub przewidywane przez określenie motywacji użytkownika, a to z kolei jest pod bezpośrednim wpływem bodźców zewnętrznych, wynikających z rzeczywistych cech i możliwości technologii. Odczuwana przez studentów łatwość użytkowania (PEU) ma znaczący wpływ na postawę względem użytkowania (ATU) przy jednoczesnym silnym wpływie na postrzeganą użyteczność (PU). Badania wykazały przydatność modelu TAM w badaniach nad zachowaniami użytkowników książki elektronicznej.
Abstract
Fast but uneven development of electronic publications raises the question of the pace of their future development, depending on the level of acceptance by users. The goal is to present anticipation for the development of e-books, based on student feedback. The TAM (Technology Acceptance Model) tool has been used to obtain information about behavioral intentions for students using electronic books, where it is assumed that the use of a new technology can be explained or predicted by defining a user’s motivation, which is directly influenced by external stimuli, resulting from the real characteristics and capabilities of the technology. The perceived ease of use (PEU) experienced by students has a significant impact on attitudes towards usage (ATU), with a strong impact on perceived usefulness (PU). Research has demonstrated the usefulness of the TAM model in research on the behavior of e-book users.
Wstęp
Gwałtowny rozwój technologii informacyjnych w drugiej połowie XX wieku, powodujący z jednej strony szybkie powstawanie, wydawałoby się, łatwych fortun z niczego (mit o „dwóch studentach w garażu” budujących komputery), a z drugiej nieoczekiwany upadek wielu potężnych, globalnych przedsiębiorstw informatycznych, takich jak np. IBM i DEC, w wyniku działania tzw. twórczej destrukcji (creative destruction) opisywanej przez Richarda Fostera i Sarah Kaplan (Foster, Kaplan 2001), spowodował zainteresowanie naukowców badaniami przyczyn tych zjawisk. Na tym niestabilnym rynku bardzo istotne stało się między innymi określenie warunków i przewidywanego poziomu akceptacji nowych technologii przez ich (potencjalnych i aktualnych) użytkowników. Rozwój technologiczny powoduje, że kolejne bariery techniczne, ograniczające użyteczność technologii znikają, przez co tym ważniejsze stają się bariery mentalne; zasadniczym zadaniem jest tworzenie takich aplikacji, które ludzie zechcą używać. Projektanci systemów poszukiwali metod umożliwiających ocenę poziomu akceptacji systemów na jak najwcześniejszym etapie projektowania i implementacji, co pozwoliłoby uniknąć modyfikacji na etapie produkcji. W tym celu badano rolę wielu cech funkcjonalnych systemów informacyjnych (rozumianych tutaj szerzej, niż jest to zwykle przyjęte w informatologii – zgodnie z autorami prac w obszarze wykorzystania metody TAM, system informacyjny to każda część systemu społecznego, która może być źródłem informacji, a więc oprócz biblioteki cyfrowej może to być poczta elektroniczna lub czasopismo czy książka elektroniczna) dla ich implementacji do interfejsów użytkowników końcowych, co okazało się trudniejsze niż pierwotnie przewidywano. Wiele z tych prób pozostawało nieudanych, gdyż nie oferowały wartościowych miar, których stosowanie pozwalałoby na wyjaśnienie przyczyn akceptacji lub odrzucenia produktów nowych technologii informacyjnych (Nahotko, 2014).
Twórcy systemów informacyjnych badali możliwości zastosowania różnych modeli pochodzących z psychologii społecznej, opisujących intencje jako potencjalną podstawę teoretyczną badań nad zachowaniami użytkowników tych systemów. Martin Fishbein i Icek Ajzen sformułowali teorię uzasadnionego działania (Theory of Reasoned Action – TRA) (Fishbein, Ajzen, 1975), później rozwijaną (Fishbein, Ajzen, 2010, s. 20). Według nich przy pomocy małej ilości zmiennych można wyjaśniać istotną część zmienności każdego zachowania, w każdej populacji. W szczególności model ten wskazuje, że intencja przejawiania jakiegoś zachowania wynika przyczynowo (choć niekoniecznie racjonalnie) z określonych przekonań, które ludzie posiadają na temat tych zachowań. Intencja ta może być więc podstawą przewidywania zachowania.
Poglądy te stały się podstawą badań Freda Davisa, prowadzonych w latach 80. XX wieku, mających na celu wyjaśnianie zachowań użytkowników systemów komputerowych. W swoim doktoracie, obronionym w 1985 r. w MIT, przedstawił koncepcję modelu TAM (Technology Acceptance Model) (Davis, 1985). Opierała się ona na założeniu, że decyzja o stosowaniu przez użytkownika nowej technologii informacyjnej jest reakcją behawioralną, którą można wyjaśnić lub nawet przewidzieć na podstawie motywacji*1 użytkownika, na którą z kolei wpływają bezpośrednio bodźce zewnętrzne, wynikające z bieżących cech i możliwości technologii. Akceptacja technologii rozumiana jest jako wola, demonstrowana w grupie użytkowników, stosowania technologii informacyjnej w celu realizacji zadań, dla których wspomagania została ona zaprojektowana (Dillon, Morris, 1998, s. 5).
Na podstawie tych założeń Davis rozbudowywał swój model konceptualny do wersji przedstawionej na rysunku nr 1. Zaproponował on, że motywacje użytkownika mogą zostać wyjaśnione przy pomocy trzech głównych czynników: postrzeganej łatwości użytkowania (perceived ease of use -- PEU), postrzeganej użyteczności (perceived usefulness – PU) oraz postawy względem używania technologii (attitude towards usage – ATU). Przyjął on, że postawa użytkownika względem stosowanej technologii (systemu) jest główną determinantą jego decyzji o używaniu lub odrzuceniu systemu. Uznał również, że na postawę użytkownika wpływają z kolei dwa główne, wymienione przekonania: postrzegana użyteczność i postrzegana łatwość użytkowania, przy czym ta ostatnia ma bezpośredni wpływ na postrzeganą użyteczność. Poza tym przyjęto, że na oba te przekonania bezpośrednio oddziałują cechy projektowe systemu, na rysunku nr 1 zaznaczone jako X1, X2 i X3.
* Motywację człowieka określa się jako stan gotowości (wewnętrznej lub zewnętrznej) do podjęcia określonego działania w celu uzyskania określonego efektu (Reykowski, 1982, s. 567). Poziom charakteryzującej człowieka motywacji zależy zarówno od rodzaju podejmowanego działania, jak również od czasu trwania tego działania (odwrotnie proporcjonalnie). Ponadto występujący w danym momencie trwania działania poziom motywacji zależy od wysiłku, jaki należy włożyć w osiągnięcie zamierzonego efektu i ryzyka związanego z daną czynnością.
Rysunek 1. Pierwotny model TAM
Źródło: oprac. własne na podstawie Davis, Fred (1985). A technology acceptance model for empirically testing. New end-user information systems: theory and results. Cambridge, MA: MIT Press, s. 24).
Podczas późniejszych eksperymentów Davis udoskonalił swój model, wprowadzając inne zmienne i modyfikując pierwotnie sformułowane relacje. Model był również stosowany przez innych badaczy, którzy wprowadzali swoje modyfikacje (zazwyczaj nowe zmienne), w wyniku czego TAM stawał się podstawowym modelem stosowanym dla wyjaśniania i przewidywania wykorzystania systemów technologii informacyjnych. Stał się tak popularny, że cytowany jest przez większość autorów zajmujących się zagadnieniami akceptacji technologii informacyjnych, chociaż jest także krytykowany (Lee, Kozar, Larsen, 2003; Chen, Li, Li, 2011, s. 125).
Podstawy teoretyczne i metodologia badań
Teoria uzasadnionego działania (TRA) zbudowana została na założeniu o możliwości prognozowania zachowania osoby dzięki uwzględnieniu jej wcześniejszych zamiarów oraz żywionych przez nią przekonań względem określonego zachowania. Autorzy tej teorii określili intencję żywioną przez osobę jeszcze przed jej rzeczywistym zachowaniem jako intencję behawioralną. Intencja ta zdefiniowana została jako miara czyjejś skłonności do przejawiania zachowania; może być ona określona poprzez uwzględnienie dwóch czynników: postawę osoby względem rzeczywistego zachowania oraz własnych norm związanych z określonym zachowaniem. Postawa do przejawiania zachowania zdefiniowana została jako pozytywne lub negatywne odczucia osoby dotyczące realizacji zachowania. Własne (subiektywne) normy danej osoby, związane z jej zachowaniem, określone zostały jako wewnętrzne przekonanie, że większość ludzi ważnych dla danej osoby uważa, iż powinna (lub nie powinna) ona przejawiać dane zachowanie.
TRA rozwinięta została w późniejszym okresie w kierunku teorii planowanego działania (Theory of Planned Behavior – TPB) (Ajzen, 1991). Zakłada się w niej, że działania jednostki, oprócz norm subiektywnych i postaw, kształtuje również kolejny czynnik, nazwany postrzeganą kontrolą behawioralną (perceived behavioral control – PBC). Jest to przekonanie dotyczące możliwości wykonania działania. Ten element teorii bywał wykorzystywany w rozszerzonych wersjach TAM.
Hybryda TRA/TPB dostarcza użytecznego modelu, przy pomocy którego wyjaśnić można, a nawet przewidywać, rzeczywiste zachowania poszczególnych osób (Chuttur, 2009). Davis wykorzystał ten, powstały na gruncie psychologii społecznej, model i zmodyfikował go na potrzeby badania akceptacji systemów informacyjnych przez ich potencjalnych użytkowników, co doprowadziło do powstania TAM. U jego podstaw również znajduje się założenie, że rzeczywiste wykorzystanie systemu informacyjnego jest zachowaniem, więc TRA powinien być właściwym modelem dla wyjaśnienia i przewidywania tego zachowania. Jednak do pierwotnego systemu wprowadził kilka poprawek. Po pierwsze, w przewidywaniu rzeczywistych zachowań osoby nie uwzględnił on jej własnych, subiektywnych norm. Uważał on, że jest to najmniej zrozumiały element TRA, posiadający niejasny status teoretyczny. W związku z tym w TAM uwzględniona została tylko postawa osoby względem rzeczywistego zachowania. Po drugie, zamiast uwzględniać kilka odrębnych przekonań determinujących postawę względem zachowania, Davis, na podstawie badań innych autorów, wyróżnił tylko dwa odrębne przekonania: wymienione już postrzeganą łatwość użytkowania i postrzeganą użyteczność, wystarczające do przewidywania postawy użytkownika względem stosowania systemu informacyjnego.
Ze względu na prostotę i łatwość implementacji TAM pozostaje bardziej atrakcyjny niż TRA i TPB. Dalszy rozwój TAM przebiegał w kierunku zastosowań w różnych dziedzinach i rozbudowywania modelu o nowe zmienne.
Po określeniu elementów modelu należało utworzyć skale pomiarowe dla uwzględnionych w nim elementów. W tym celu zastosowano, używane również w psychologii, skale psychometryczne (Davis, 1989, s. 323). Przy ich pomocy uzyskuje się od użytkownika technologii odpowiedzi na wiele pytań, skonstruowanych z uwzględnieniem przedmiotu badań. Odpowiedzi podlegają analizie, jako wskaźniki wewnętrznych przekonań o przedmiocie badań. Davis konstruował swoje skale trzyetapowo: w fazie pretestów, badań empirycznych i eksperymentu laboratoryjnego, za każdym razem modyfikując je i upraszczając. W pierwszym etapie utworzył on skalę 14-elementową, co pozwoliło na oszacowanie jakości semantycznej elementów skali oraz pogrupowanie ich na zasadzie podobieństwa. Dzięki temu łatwo odnaleziono elementy pozbawione dwuznaczności i ścisłe, usuwając pozostałe, przez co ograniczono skale do 10 elementów, przedstawionych w tabelach nr 1 i 2 (Davis, 1989, s. 326). Zamiast określenia „technologia” należy umieścić nazwę konkretnej technologii (np. książki elektronicznej).
Tabela 1. 10-elementowa skala dla postrzeganej użyteczności
Nr pozycji
Element skali psychometrycznej
1
Stosowanie technologii zwiększa jakość wykonywanej przeze mnie pracy
2
Stosowanie technologii pozwala mi na większą kontrolę mojej pracy
3
Technologia pozwala mi na szybszą realizację zadań
4
Technologia wspomaga krytyczne aspekty mojej pracy
5
Stosowanie technologii zwiększa moją produktywność
6
Stosowanie technologii poprawia wydajność mojej pracy
7
Stosowanie technologii pozwala mi wykonywać więcej pracy niż byłoby możliwe w innym przypadku
8
Stosowanie technologii zwiększa efektywność mojej pracy
9
Stosowanie technologii ułatwia mi pracę
10
Ogólnie, uważam, że technologia jest przydatna w mojej pracy
Źródło: oprac. własne na podst. Davis, Fred (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, vol. 13, issue 3, s. 326.
Tabela. 2. 10-elementowa skala dla postrzeganej łatwości użytkowania
Nr pozycji
Element skali psychometrycznej
1
Używanie technologii jest niewygodne
2
Nauczenie się posługiwania technologią jest dla mnie łatwe
3
Interakcja z technologią często jest frustrująca
4
Uważam, że łatwo od technologii uzyskać to, czego oczekuję
5
Technologia jest we współdziałaniu sztywna i nieelastyczna
6
Łatwo zapamiętuję sposób wykonywania czynności podczas używania technologii
7
Współdziałanie z technologią wymaga wiele wysiłku umysłowego
8
Współdziałanie z technologią jest jasne i zrozumiałe
9
Uważam, że potrzeba wiele wysiłku, aby nabrać sprawności w stosowaniu technologii
10
Ogólnie uważam, że technologia jest łatwa w użyciu
Źródło: oprac. własne na podst. Davis, Fred (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, vol. 13, issue 3, s. 326.
W dalszej kolejności Davis skrócił obie skale do sześciu elementów, gdyż uważał, że takie ograniczenie ułatwi prowadzenie badań w praktyce. Oprócz pytań dotyczących elementów modelu przedstawionych powyżej, Davis badał również postawę względem technologii wykorzystując 7-stopniową skalę z środkowym punktem oznaczonym jako „neutralny”, służącą pomiarowi pięciu rodzajów postaw osób względem technologii, zadając pytanie: uwzględniając wszystkie czynniki, stosowanie „technologii” jest: dobre-złe, rozsądne-głupie, sprzyjające-niesprzyjające, korzystne-szkodliwe, pozytywne-negatywne (Davis, 1993, s. 479). Poza tym użytkownicy określali bieżący poziom stosowania technologii z wykorzystaniem sześcioelementowej skali o etykietach: „nie używam”, „używam rzadziej niż raz w tygodniu”, „używam około raz w tygodniu”, „używam kilka razy w tygodniu”, „używam codziennie”, „używam kilka razy dziennie”.
Modyfikacje TAM
Zamiarem Davisa było opracowanie prostego, teoretycznie uzasadnionego modelu, przy pomocy którego można objaśniać czynniki determinujące wykorzystanie różnych systemów komputerowych przez różnych użytkowników. Najważniejszą modyfikacją, wykonaną przez twórcę TAM i jego współpracowników, było dodanie do modelu nowej zmiennej: zamiaru lub intencji behawioralnej (behavioral intention – BI), przejętej z TRA, która kształtuje się pod wpływem dwóch czynników: subiektywnej normy (subjective norms – przekonania osoby o poziomie akceptacji technologii przez ważne dla niej autorytety) oraz postawy względem zachowania (attitude toward behawior – przekonania dotyczące możliwych konsekwencji zachowania oraz ocena tych konsekwencji przez osobę) (Przechlewski, 2012, s. 64). Zmiana ta wynika z uwzględnienia sytuacji, gdy jakiś system uznany zostanie za użyteczny, a użytkownik posiada silną intencję behawioralną stosowania go bez tworzenia żadnych postaw. W wyniku tego powstała zmodyfikowana wersja TAM, zwana przez Tomasza Przechlewskiego „klasyczną” (rys. 2). W tej wersji TAM sugeruje się, że stosowanie technologii jest determinowane przez behawioralną intencję wykorzystania (BI), gdzie BI jest rozumiane jako determinowane łącznie przez postawę względem zachowania (ATU) i postrzeganą użyteczność (PU), ze względną wagą oszacowania przez regresję: BI = ATU + PU. Relacja ATU → BI powoduje, że przy równowadze innych czynników ludzie tworzą intencje w kierunku przejawiania zachowań, dla których przejawiają pozytywną skłonność. Relacja PU → BI jest oparta na poglądzie, że w organizacjach ludzie posiadają tendencje do zachowań, które według nich mogą poprawić ich wyniki w pracy, bez względu na odczucia, jakie mogą żywić w stosunku do tych zachowań.
Rysunek 2. Model TAM po modyfikacji
Źródło: oprac. własne na podstawie Davis, Fred; Bagozzi, Richard; Warshaw, Paul (1989). User acceptance of computer technology: a comparison of two theoretical models. Management Sciences, vol. 35, issue 8, s. 985.
Zmienne zewnętrzne zawierają charakterystykę systemu stosującego nową technologię, charakterystykę użytkownika i czynniki organizacyjne (Przechlewski, 2012, s. 66). Wpływają one pośrednio na intencje, determinując wielkość postrzeganej użyteczności i postrzeganej łatwości użytkowania (łącznie tworzą one wartość postawy względem zachowania), przy czym wpływ pierwszego czynnika jest wyraźnie większy. Model TAM nie zawiera natomiast czynnika norm subiektywnych, który pełni istotną rolę w TRA/TPB jako determinant intencji. TAM został w ten sposób uproszczony w stosunku do TRA/TPB, gdyż wpływ wymienionego czynnika podczas pierwszych eksperymentów okazał się nieistotny, a skale psychometryczne do pomiaru norm subiektywnych były słabe (Davis, Bagozzi, Warshaw, 1989, s. 986). Poza tym w TAM, inaczej niż w TRA/TBP, przewiduje się bezpośrednią zależność między użytecznością a intencją wykorzystania, co powodowało usuwanie w niektórych badaniach czynnika postawy względem zachowania oraz łączenia postrzeganej użyteczności i łatwości użytkowania bezpośrednio z intencjami. Jednak według Davisa intencja behawioralna jest sumą postawy względem zachowania oraz postrzeganej użyteczności.
Ograniczenia metodologii
Najczęściej wymienianym ograniczeniem jest fakt badania wykorzystania technologii informacyjnej przez uwzględnianie intencji wykorzystania zgłaszane przez użytkownika, zamiast badania rzeczywistego wykorzystania. W badaniach zakłada się, że informacje użytkowników o intencji do wykorzystania odzwierciedlają rzeczywiste wykorzystanie (Turner i in., 2010, s. 464). Jest to problem metodologiczny, powodujący zniekształcenia i przejaskrawiania przypadkowych relacji pomiędzy zmiennymi niezależnymi i zależnymi.
Krytykowane było także prowadzenie części badań na studentach, gdyż przeniesienie wyników na środowisko profesjonalnego stosowania technologii jest trudne. Założenie, że łatwość stosowania i użyteczność definiuje akceptowalność technologii jest co prawda poprawne, jednak prowadzi do pomijania takich kryteriów jak bezpieczeństwo, wiarygodność i prywatność – bardzo istotne we współczesnym Internecie (Whitworth, Friedman, 2009). Z tego m.in. wynikają liczne modyfikacje, wzmiankowane powyżej; polegają one głównie na dodawaniu nowych kryteriów. W efekcie narzeka się na chaos w teorii, gdyż nie istnieje wersja modelu, która byłaby powszechnie akceptowana (Benbasat, Barki, 2007, s. 2).
Innym problemem jest tendencja do badania tylko jednego systemu informacyjnego, realizującego ograniczoną liczbę działań dotyczących jednego zagadnienia w jednym okresie, co utrudnia generalizację wyników. Zazwyczaj badania dotyczą tylko jednej organizacji lub jej jednostki organizacyjnej. Ponieważ percepcja i intencje użytkowników mogą zmieniać się wraz z upływem czasu, ważne jest dokonywanie kilku pomiarów ich wartości w odstępach czasu. Takie porównania dokonywane są jednak tylko w mniej niż połowie badań. Nie odróżniano także obowiązkowego stosowania technologii od dobrowolnego lub zakładano dobrowolność jej stosowania.
Zarówno zaletą, jak i wadą TAM może być jego prostota. Ułatwiła ona szybkie rozprzestrzenienie się metodologii w wielu badaniach, jednak trudno oczekiwać, że przy pomocy jednego, prostego modelu uda się wyjaśnić decyzje i zachowania dotyczące różnych technologii, ich zastosowań i sytuacji decyzyjnych. Badacze, wybierając prosty model, nie zwracali uwagi na zasadnicze determinanty podejmowania decyzji i działań oraz pomijali ograniczenia TAM (Bagozzi, 2007, s. 244).
Technologia książki elektronicznej
Jak już wspomniano, TAM stosowany jest w bardzo wielu badaniach o różnych celach, w stosunku do wielu różnych technologii i funkcji systemów informacyjnych. Model ten był w badaniach łączony z innymi modelami teoretycznymi. W 2003 roku doliczono się 30 różnych systemów informacyjnych, których akceptację badano tą metodą (Lee, Kozar, Larsen, 2003, s. 758). Można je podzielić na cztery kategorie:
−
systemy komunikacyjne: e-mail, v-mail, fax,
−
systemy ogólnego zastosowania: Windows, komputery osobiste, mikrokomputery, Internet,
−
systemy biurowe: edytory tekstowe, oprogramowanie do tworzenia prezentacji, systemy baz danych, groupware, arkusze kalkulacyjne,
−
specjalne systemy biznesowe: modelowanie komputerowe, systemy szpitalne, systemy ekspertowe, DSS (Decision Support System), GSS (Group Support System), GDSS (Group Decision Support System), biblioteki cyfrowe (Thong, Hong, Tam 2002), czasopisma elektroniczne.
W prawie każdym badaniu dodawane były także dodatkowe zmienne do modelu TAM, co było niezbędne ze względu na specyfikę przedmiotu badań.
Technologią informacyjną, która od początku XXI w. przeżywa szybki rozwój, jest książka elektroniczna. Z punktu widzenia komunikowanych treści e-książka jest podobna do swojej drukowanej poprzedniczki, z wyjątkiem stosowanego nośnika (Velde, Ernst, 2009, s. 570). Nośnikiem może być każde urządzenie elektroniczne posiadające ekran umożliwiający wyświetlanie tekstu, od komputera (laptopa, palmtopa), poprzez specjalne czytniki, wykonywane w różnych technologiach i tablety, po smartfony. Związek rozprzestrzeniania e-książki z dostępnością sprzętu jest o tyle istotny, że na przykład sprzedaż tabletów przewyższyła już sprzedaż komputerów stacjonarnych, a około połowa użytkowników tabletów regularnie używa ich do czytania książek (Huang, Chen, Ho, 2014, s. 510). W zastosowaniu jest także wiele formatów, czasem typowych dla wszelkich tekstów elektronicznych (np. pdf). Jednak, w odróżnieniu od na przykład czasopism elektronicznych, dla e-książek stosuje się również formaty przygotowane z myślą wyłącznie o nich (np. Mobi lub ePub). Obecnie formaty, początkowo mocno zróżnicowane, ulegają ujednoliceniu, co może świadczyć o dojrzewaniu tej technologii. Bez względu na format tekst jest jakby w naturalny sposób w pełni indeksowalny.
Książka elektroniczna długo pozostawała w cieniu czasopism elektronicznych, których rynek (szczególnie czasopism naukowych) w całości przeniósł się do Internetu. Gwałtowny rozwój rynku książki elektronicznej rozpoczął się w USA około 2009 r., aby następnie przenieść się także do Europy, Australii i na Daleki Wschód. Już w 2010 r. wzrost sprzedaży sięgał ponad 200% rocznie, a Amazon sprzedawał więcej książek elektronicznych niż drukowanych (Loebbecke, 2010). Co prawda część źródeł, na przykład Association of American Publishers (AAP). wskazuje na spadek od 2015 r. dynamiki rynku książki elektronicznej, ale coraz częściej pojawiają się głosy o tym, że zmiany są głębsze niż tylko przejście od publikowania książki drukowanej do elektronicznej przez dotychczasowych (tradycyjnych) wydawców, skupionych w AAP. Na rynku książki elektronicznej w USA, przynajmniej pod względem liczby publikowanych tytułów, dominują obecnie tzw. „Indie publishers”, czyli autorzy samodzielnie publikujący swoje książki na wielu platformach stworzonych specjalnie w tym celu, m. in. przez Amazon.
Dotychczasowe badania dotyczące czytania zasobów elektronicznych skupiały się na porównywaniu czytania w druku i na nośnikach cyfrowych w odniesieniu do biegłości w czytaniu ze zrozumieniem, jego szybkości i efektywności. W wielu pracach wskazuje się, że użyteczność książek drukowanych jest ogólnie wyżej oceniana niż książek elektronicznych (Chao, Chen, 2009; Richardson, Mahmood, 2012). Część badaczy sądzi, że te wyniki są związane z takim czynnikiem użyteczności, jak fakt, iż stosowanie książki drukowanej jest bardziej naturalne i intuicyjne (Liesaputra, Witten, Bainbridge, 2009). Jednak inni badacze zwracają uwagę na występowanie także innych czynników, takich jak niechęć czytelników do zmian istniejących przyzwyczajeń czytelniczych, związanych z drukiem (Marek, Griggs, Christopher, 1999) oraz jednocześnie z ich długotrwałą, negatywną postawą do czytania cyfrowego (Appleton, 2004). Czynniki te odpowiadają za niski poziom akceptacji czytania tekstów elektronicznych, związanego z technologią opartą na PC lub laptopach. Nowsze badania przedstawiają także rolę wzrostu doświadczenia użytkownika, który sam definiuje funkcje produktu. W oparciu o wzorce zachowań użytkowników identyfikowane są wymagania w stosunku do technologii, które mogą służyć jako wskazówki dla przeprojektowania produktu (Huang, Chen, Ho, 2015, s. 511).
Biblioteki, początkowo publiczne, później także naukowe, zareagowały na opisane zmiany. Personel wielu bibliotek zauważył możliwości, które oferują e-książki w zakresie rozwoju zbiorów i udostępniania. Muszą one być jednak skorelowane z potrzebami użytkowników, które mogą różnić się ze względu na reprezentowaną dyscyplinę naukową. Na przykład badania zwykle wskazują, że reprezentanci nauk humanistycznych preferują książki drukowane, podczas gdy część czytelników z nauk społecznych i większość z nauk ścisłych preferuje książki elektroniczne (Levine-Clark, 2006). Negatywnie na stopień wykorzystania wpływa zakup przez biblioteki książek elektronicznych w pakietach, które zwykle nie są dokładnie dostosowane do potrzeb użytkowników konkretnej książnicy (Knowlton, 2016, s. 31). Osiągnięcie sukcesu w tym zakresie wymaga znajomości technologii informacyjnych przez użytkowników oraz ich akceptacji w sensie przynajmniej pozytywnego nastawienia dla stosowania tego systemu.
Badania poziomu akceptacji książki elektronicznej
Model TAM zastosowany został w badaniach służących wyjaśnieniu określonego zachowania (używania) w kierunku określonego celu (książka elektroniczna) w określonym kontekście (studenci INiB UJ). Okres stosowania książki elektronicznej nie został wprost określony, jednak został w sposób domniemany użyty poprzez włączenie do kontekstu nauki na uniwersytecie. Model TAM został zastosowany w badaniach ze względu na możliwość przewidywania przy jego pomocy poziomu akceptacji technologii przez określoną grupę użytkowników. Związki przyczynowo-skutkowe pomiędzy składnikami modelu: PU (uświadomiona użyteczność książek elektronicznych), PEU (uświadomiona łatwość stosowania książek elektronicznych), ATU (postawa względem użytkowania książki elektronicznej) i BI (intencja stosowania książki elektronicznej) odzwierciedlają środowisko stosowania książki elektronicznej. PU oznacza stopień rozpowszechnienia poglądu o przydatności książki elektronicznej w aktywności akademickiej, natomiast PEU dotyczy stopnia podzielania poglądu o możliwości stosowania książki elektronicznej bez potrzeby wydatkowania wysiłku kognitywnego. PU i PEU łącznie wykazują istotny wpływ na ATU, który z kolei wpływa na BI. Dodatkowo PEU istotnie wpływa na PU. Podobnie uważa się, że na BI wpływa ATU.
PU oraz PEU zostały operacjonalizowane z użyciem 6-elementowych instrumentów badawczych. Elementami dla użyteczności były:
−
stosowanie książek elektronicznych oszczędza czas,
−
stosowanie książek elektronicznych ułatwia naukę,
−
książki elektroniczne dostarczają potrzebnych informacji,
−
stosowanie książek elektronicznych zwiększa efektywność nauki,
−
stosowanie książek elektronicznych przyśpiesza pracę,
−
uważam książki elektroniczne za przydatne w nauce.
Elementami dla łatwości stosowania były:
−
nauka korzystania z książek elektronicznych jest łatwa,
−
łatwo jest używać książki elektronicznej tak, jak jest mi to potrzebne,
−
interakcja z książką elektroniczną jest prosta i zrozumiała,
−
książka elektroniczna pozwala na elastyczną interakcję,
−
książki elektroniczne są przyjazne (user-friendly),
−
uważam książki elektroniczne za łatwe w użyciu.
Elementy obu grup były mierzone przy użyciu 7-stopniowej skali o krańcowych odpowiedziach „zdecydowanie tak” i „zdecydowanie nie”.
Stosowanie książki elektronicznej zostało określone przy pomocy pytania z 6 odpowiedziami do wyboru, od „nie używam w ogóle” do „używam kilka razy w tygodniu”. Są to często spotykane miary w przypadku technologii, dla których brak obiektywnych miar użytkowania, takich jak logi transakcji.
Stosowanie modelu TAM wydaje się być szczególnie przydatne dla zrozumienia problemów konceptualnych, związanych z wykorzystaniem książki elektronicznej. Jest też szczególnie wskazane w przypadku badań osób, mających wpływ na decyzję o używaniu systemu (Pearlson, Saunders, 2006). Czynniki modelu TAM: PU, PEU oraz postawa względem zachowania (ATU) reprezentują atrybuty, czyli charakterystyki systemu, takie jak ogólny projekt i cechy systemu, umiejętności użytkowników oraz ich wierzenia i nastawienia względem systemu. Behwioralna intencja wykorzystania (BI) jest ważnym czynnikiem determinującym decyzję o rzeczywistym wykorzystaniu systemu. Zastosowanie modelu TAM do badania percepcji książek elektronicznych przez studentów i potencjalne oraz przyszłe ich stosowanie jest oparte ma następujących założeniach:
1.
Postrzeganie przez studentów książki elektronicznej jako użytecznej i łatwej do stosowania wyzwala pozytywną postawę w stosunku do jej stosowania.
2.
Postrzeganie przez studentów książki elektronicznej jako łatwej do stosowania, może powodować u nich pozytywną postawę względem użyteczności książki.
3.
Posiadanie przez studentów pozytywnej postawy w stosunku do książki elektronicznej powoduje, że stosują ją często i intensywnie, co może być powodem posiadania przez nich intencji używania książki elektronicznej.
W związku z celem badań i odpowiednio do literatury przedmiotu, w przeprowadzonych analizach testowano następujące hipotezy:
H1: postrzegana użyteczność (PU) posiada istotny wpływ na postawę względem używania technologii (ATU).
H2: postrzegana łatwość użytkowania (PEU) ma istotny wpływ na postawę względem użytkowania technologii (ATU).
H3: postrzegana łatwość użytkowania (PEU) ma istotny wpływ na postrzeganą użyteczność (PU).
H4: postawa względem użytkowania technologii (ATU) istotnie wpływa na behawioralną intencję wykorzystania (BI) książki elektronicznej.
Przyjęte hipotezy są podstawą utworzenia modelu badawczego (rys. 3), przedstawiającego schemat relacji przyczynowo-skutkowych i stanowiącego punkt początkowy badań. Jest on oczywiście bezpośrednio oparty na modelu TAM. Prostokąty przedstawiają konstrukty, które będą mierzone przy pomocy zestawu jednostek, natomiast strzałki reprezentują hipotezy od 1 do 4.
Rysunek 3. Model konceptualny badania
Źródło: oprac. własne.
Badaniami objęto 71 (N=71) studentów pierwszego roku zarządzania informacją na Uniwersytecie Jagiellońskim. Osoby te, z racji odbywanych zajęć, zainteresowane są publikowaniem, w tym elektronicznym, oraz technologiami informacyjnymi w ogóle, jednak ich wiedza profesjonalna nie jest jeszcze pełna, więc nie wpływa silnie na postawy. Model konceptualny badania obejmuje 19 pozycji (zob. tab. 3), pozwalających na pomiar PU (6 pozycji), PEU (6 pozycji), ATU (5 pozycji) i BI (2 pozycje). Wszystkie odpowiedzi wykorzystują 7-stopnioną skalę Likerta, od 7 – zdecydowanie tak, do 1 – zdecydowanie nie. Wszystkie średnie są powyżej punktu środkowego 3. Odchylenie standardowe SD znajduje się w zakresie od 1,22 do 1,66, co wskazuje na mały rozrzut wokół średniej.
Tabela 3. Zestawienie wartości średnich i odchyleń standardowych (N=71)
Czynnik
Pytanie
Średnia M
SD
Postrzegana użyteczność PU
P1
4,76
1,578
P2
4,51
1,546
P3
5,58
1,380
P4
4,35
1,557
P5
3,55
1,617
P6
5,69
1,217
Postrzegana łatwość użytkowania PEU
P1
5,83
1,300
P2
5,56
1,297
P3
5,69
1,133
P4
5,37
1,270
P5
5,28
1,345
P6
5,73
1,510
Postawa względem użytkowania ATU
P1
5,01
1,657
P2
4,82
1,586
P3
4,69
1,632
P4
4,93
1,568
P5
4,49
1,626
Behawioralna intencja wykorzystania BI
P1
4,70
1,514
P2
4,39
1,261
Źródło: oprac. własne.
W celu weryfikacji dokładności pomiarowej użytych skal przeprowadzono analizę skalowania metodą Alfa Cronbacha. Analiza wykazała, że wszystkie skale użyte do pomiaru treści modelu charakteryzowały się wysoką rzetelnością pomiaru. Wyniki miar Alfa Cronbacha wynosiły powyżej α=0,72, co oznacza, że w każdym przypadku przekroczyły rekomendowaną wartość α=0,70. Skale pozwalały na bardzo dokładny pomiar cech modelu. Wyniki przedstawione zostały w tabeli nr 4.
Tabela 4. Współczynniki Alfa Cronbacha i statystyki opisowe pomiarów
Pomiar
Alfa Cronbacha
Liczba pozycji
M
SD
PU
,81
6
4,74
1,07
PEU
,88
6
5,58
1,04
ATU
,87
5
4,79
1,32
BI
,72
2
4,55
1,24
M – średnia arytmetyczna; SD – odchylenie standardowe
Źródło: oprac. własne.
W celu budowy modelu wykonano modelowanie równań strukturalnych (structural equation modelling). Dla estymacji wyników wykonano obliczenia metodą największej wiarygorności (ML). Analiza współczynników dopasowania modelu wykazała, że utworzony model był prawie doskonale dopasowany do zebranych danych. Miara CMIN/DF wykazała brak istotnej różnicy między modelem teoretycznym a modelem empirycznym χ2 (N=71) = 0,07; p = 0,788. Ponadto miary NFI (normated fix index), CFI (comparative fix index) oraz RFI (relative fit index) wyniosły odpowiednio 1, 0,99 i 1, co świadczy o mocnym dopasowaniu modelu do danych. Dodatkowo miara rozbieżności dopasowania RMSEA (root mean square error of approximation) wyniosła 0,00 (oszacowanie punktowe) przy 90% ci (confidence interval) (przedział ufności 0,00-0,21). Współczynnik ten był zbieżny z poprzednim, co dodatkowo potwierdza dopasowanie modelu do danych.
Analiza wykazała, że PEU istotnie wpływało na zwiększony poziom PU β=0,55, C.r.=5,50; p<0,001 oraz PEU istotnie wpływało na ATU β=0,33, C.r.=2,61; p<0,01. Analiza nie wykazała wpływu PU na ATU oraz ATU na BI p>0,05. Analiza współczynników wyjaśnionej wariancji R2 wykazała, że PEU wyjaśniało 30% zmienności poziomu wyników PU, a poziom ATU był wyjaśniany przez 23% PEU i PU. Zmienna BI była wyjaśniana przez model TAM w 35%. Wyniki obliczeń współczynników regresji przedstawia tabela nr 5. (kolorem zaznaczono wykryty wpływ czynników) i rysunek nr 5. Tabela nr 6. przedstawia współczynniki wyjaśnionej wariancji dla zmiennych w testowanym modelu.
Tabela 5. Uzyskane współczynniki modelu
Hipoteza
Przyczyny
Kierunek wpływu
Zmienne zależne
β
B
s.e
c.r.
H1
PU
→
ATU
0,21
0,26
0,16
1,68*
H2
PEU
ATU
0,33
0,41
0,16
2,61**
H3
PEU
PU
0,55
0,56
0,10
5,50***
H4
ATU
BI
0,14
0,13
0,10
1,30*
*** p<0,001, ** p<0,01, * p>0,05
Źródło: oprac. własne.
Tabela 6. Wyjaśniona wariancja poszczególnych zmiennych modelu TAM
R2
PU
0,30
ATU
0,23
BI
0,35
Źródło: oprac. własne
Rysunek 4. Wykres ścieżkowy modelu badawczego
Źródło: oprac. własne.
Wnioski
TAM wraz z modyfikacjami i modelami pochodnymi jest bardzo popularną metodologią, której stosowanie pozwala na wyjaśnianie i przewidywanie poziomu wykorzystania systemów technologii informacyjnych. Model jest sprawdzony w praktyce – przy jego pomocy wykonano wiele badań szeroko rozumianych technologii informacyjnych. Jednocześnie modyfikowany był sam model stanowiący podstawę tej metody, co pozwala dopasować metodologię badań do różnych grup użytkowników różnych systemów, zarówno służących zastosowaniom profesjonalnym, jak i rozrywce.
Warto zauważyć, że TAM nie mierzy korzyści ze stosowania technologii. Technologia jest zwykle popierana ze względu na możliwość poprawy w jakiś sposób praktyki zawodowej (np. przez zwiększenie produktywności, jakości lub terminowości realizacji produktów lub usług). Stąd miary stosowania technologii są surogatem miar wartości technologii. Producenci nowych technologii muszą mierzyć wpływ technologii na przebieg aktywności, którym ona służy, aby móc oceniać biznesową wartość nowej technologii.
Celem opisanego badania było sprawdzenie, czy TAM może być zastosowany dla oceny poziomu akceptowania książki elektronicznej przez określenie relacji intencji studentów do stosowania książki elektronicznej z wybranymi czynnikami postrzeganej użyteczności (PU) i postrzeganej łatwości użytkowania (PEU) oraz postawy względem użytkowania (ATU).
Uzyskane wyniki wskazują na silny wpływ PEU na ATU. Może to oznaczać, że ponieważ studenci uważają stosowanie książki elektronicznej za łatwe i prawie pozbawione wysiłku umysłowego, mogą łatwo zyskiwać pozytywną postawę względem użyteczności systemu. Wyniki wykazały także, że PEU ma znaczący wpływ na PU. Można to wyjaśnić w ten sposób, że studenci chcą stosować książki elektroniczne, zauważając głównie łatwość ich stosowania, która nie idzie w parze z użytecznością technologii. Łatwość użytkowania książki elektronicznej jest lepiej postrzegana niż użyteczność tego systemu.
W badaniach nie stwierdzono znaczącej relacji pomiędzy PU, ATU i BI dla książki elektronicznej. Może to być zgodne z innymi badaniami, których wyniki sugerują, że rola ATU w TAM jest nierozstrzygająca. Na przykład Davis, Richard Bagozzi i Paul Warshaw (1989) twierdzili, że rola ATU w przewidywaniu akceptacji technologii jest niewielka, przez co możliwe jest stosowanie technologii przez użytkowników nawet wtedy, gdy nie mają pozytywnej postawy względem jej użytkowania, o ile jest ona postrzegana jako użyteczna lub łatwa w użyciu. Również Timothy Teo i Paul van Schalk (2009) zauważyli, że postawa względem stosowania komputerów nie wpływa istotnie na intencję użytkowania technologii. Podobne wyniki uzyskali Ronnie Shroff, Christopher Deneen i Eugenia Ng (2011) podczas badań zachowań studentów względem stosowania elektronicznego portfolio.
Bibliografia
1.
Ajzen, Icek (1991). The theory of planned behavior. Organizational Behavior and Human Decision Processes, vol. 50, issue 2, pp. 179-211.
2.
Appleton, Leo (2004). The use of electronic book in midwifery education: the student perspective. Health Information & Libraries Journal, vol. 21, issue 4, pp. 245-252.
3.
Bagozzi, Richard (2007). The legacy of Technology Acceptance Model and a proposal for a paradigm shift. Journal of AIS, vol. 8, issue 4, pp. 244-254.
4.
Benbasat Izak; Barki, Henri (2007). Quo vadis TAM? Journal of the Association for Information Systems, vol. 8, issue 4, pp. 211-218.
5.
Chao, Po-Yao; Chen, Gwo-Dong (2009). Augmenting paper-based learning with mobile phones. Interacting with Computers, vol. 21, issue 3, pp. 173-185.
6.
Chen, Shih-Chih; Li, Shing-Han; Li, Chien-Yi (2011). Recent related research in technology acceptance model: a literature review. Australian Journal of Business and Management Research, vol. 1, issue 9, pp. 124-127.
7.
Chuttur, Mohammad (2009). Overview of the Technology Acceptance Model: origins, developments and future directions. Sprouts: Working Papers on Information Systems issue 9(37). http://sprouts.aisnet.org/9-37 (odczyt: 5.04.2017).
8.
Davis, Fred (1985). A technology acceptance model for empirically testing. New end-user information systems: theory and results. Cambridge, MA: MIT Press.
9.
Davis, Fred (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, vol. 13, issue 3, pp. 319-340.
10.
Davis, Fred (1993). User acceptance of information technology: system characteristics, user perceptions and behavioral impacts. International. Journal of Man-Machine Studies, vol. 38, issue 3, pp. 475-487.
11.
Davis, Fred; Bagozzi, Richard; Warshaw, Paul (1989). User acceptance of computer technology: a comparison of two theoretical models. Management Sciences, vol. 35, issue 8, pp. 982-1003.
12.
Dillon, Andrew; Morris, Michael (1998). From “can they” to “will they?”: extending usability evaluation to address acceptance. In: Ellen Hoadley, Izak Benbasat eds. Proceedings of the Fourth Americas Conference on Information Systems (AMCIS). Baltimore: Univ. of Baltimore. http://aisle.aisnet.org/amcis1998/325
13.
Fishbein, Martin; Ajzen, Icek (2010). Predicting and changing behavior: the reasoned action approach. New York: Psychology Press.
14.
Fishbein, Martin; Ajzen, Icek (1975). Belief, attitude, intention and behavior: an introduction to theory and research. Reading: Addison-Wesley.
15.
Foster, Richard; Kaplan, Sarah (2001). Creative destruction. New York: Random House Inc.
16.
Huang, Kuo-Liang; Chen, Kuo-Hsiang; Ho, Chun-Heng (2014). Enhancement of reading experience. Users’ behavior patterns and the interactive interface design of tablet readers. Library Hi Tech, vol. 32, issue 3, pp. 509-528.
17.
Knowlton, Steven (2016). A two-step model for assessing relative interest in e-books compared to print. College & Research Libraries, vol. 77, issue 1, pp. 20-33.
18.
Lee, Younghwa; Kozar, Kenneth; Larsen, Kai (2003). The Technology Acceptance Model: past, present and future. Communications of AIS, vol. 12, issue 1, pp. 752-780.
19.
Levine-Clark, Michael (2006). Electronic book usage: a survey at the University of Denver. Portal: College and the Academy, vol. 6, issue 3, pp. 285-299.
20.
Liesaputra, Veronica; Witten, Ian; Bainbridge, David (2009). Creating and reading realistic electronic books. Computer, vol. 42, issue 2, pp. 72-81.
21.
Loebbecke, Claudia (2010). The emergence of ebooks: just another media industry joining the converging digital world? An exploratory study on user preferences and industry structure changes. In: Proc. of the 38th Research Conference on Communication, Information and Internet Policy. Washington, DC. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1986386. (odczyt: 12.03.2017).
22.
Marek, Pam; Griggs, Richard; Christopher, Andrew (1999). Pedagogical aids in textbooks: do college students’ perceptions justify their prevalence? Teaching of Psychology, vol. 26, issue 1, pp. 11-19.
23.
Nahotko, Marek (2014). Zastosowanie modeli akceptacji technologii w badaniu użyteczności bibliotek cyfrowych. Bibliotheca Nostra, nr 1 (35), s. 49-61.
24.
Pearlson, Keri; Saunders, Carol (2006). Managing and using information systems: a strategic approach. New York: Wiley & Sons.
25.
Przechlewski, Tomasz (2012). Modelowanie satysfakcji, użyteczności i wykorzystania oprogramowania Open Source. Gdańsk: Wydawnictwo Uniw. Gdańskiego.
26.
Reykowski, Janusz (1982). Emocje i motywacja. W: Tadeusz Tomaszewski red. Psychologia. Warszawa: PWN, s. 566-628.
27.
Richardson, John; Mahmood, Khalid (2012). eBook readers: user satisfaction and usability issues. Library Hi Tech, vol. 30, issue 30, pp. 170-185.
28.
Shroff, Ronnie; Deneen, Christopher; Ng, Eugenia (2011). Analysis of the technology acceptance model in examining students’ behavioural intention to use an e-portfolio system. Australasian Journal of Educational Technology, vol. 27, issue 4, pp. 600-618.
29.
Teo, Timothy; Schalk, Paul van (2009). Understanding technology acceptance in pre-service teachers: a structural-equation modeling approach. The Asia-Pacific Education Researcher, vol. 18, issue 1, pp. 47-66.
30.
Thong, James; Hong, Weiyn; Tam, Kar-Yan (2002). Understanding user acceptance of digital libraries: what are the roles of interface characteristics, organizational context and individual differences? International Journal of Human-Computer Studies, vol. 57, issue 3, pp. 215-242.
31.
Turner, Mark; Kitchenham, Barbara; Brereton, Pearl; Charters, Stuart; Budgen, David (2010). Does the technology acceptance model predict actual use? A systematic literature review. Information and Software Technology, vol. 52, pp. 463-479.
32.
Velde, Wouter; Ernst, Olaf (2009). The future of eBooks? Will print disappear? An end-user perspective. Library Hi Tech, vol. 27, issue 4, pp. 570-583.
33.
Whitworth, Brian; Friedman, Rob (2009). Reinventing academic publishing online. Part I: Rigor, relevance and practice. First Monday, vol. 14, issue 8. http://firstmonday.org/ojs/index.php/fm/article/view/2609/2248 (odczyt: 7.04.2017).
Anna Osiewalska
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Rozwój diagnostycznej roli bibliometrii –
wybrane aspekty
The diagnostic role of bibliometrics: selected issues
Słowa kluczowe: bibliometria, ewaluacja, indeksy cytowań, piśmiennictwo naukowe.
Keywords: bibliometrics, citation indexes, evaluation, scientific literature.
Abstrakt
Rozwój funkcji diagnostycznej bibliometrii przedstawiono w odniesieniu do każdej składowej tej subdyscypliny: aparatu jej metod ilościowych oraz analizowanych tymi metodami metadanych (wraz z dyskusją ich pochodzenia). Wywód przeprowadzono najpierw z punktu widzenia naukowca dokonującego przeglądu stanu piśmiennictwa danego zagadnienia, konfrontując jedną z pierwszych takich analiz (z 1917 roku) z analizami wykonywanymi współcześnie z wykorzystaniem narzędzi przygotowanych w wiodących indeksach cytowań posługujących się nawigacją fasetową. W dalszej części pracy perspektywę tę przesunięto na dyscyplinę naukową, czasopismo naukowe i wreszcie na dokonujących ewaluacji dla celów polityki naukowej.
Abstract
The development of the diagnostic function of bibliometrics is presented for each component of this subdiscipline: its apparatus of quantitative methods and the analysis of these metadata methods (with a discussion of their origin). The argument was first made from the point of view of a literature review of a given researcher’s problem, confronting one of the first such analyses (1917) with analyses done today with the tools developed in the leading indexes of citations using faceted navigation. In the further part of the work, this perspective was shifted for scientific discipline, scientific journals and finally for evaluation of scientific policy purposes.
Początki bibliometrii
W dorobku metodologicznym informatologii duży udział mają metody ilościowe. Rozkwit tych metod nastąpił wraz z powstaniem bazodanowych informatorów naukowych, tj. po roku 1964. Jednak początki ilościowych analiz piśmiennictwa naukowego (bibliometrii) są znacznie wcześniejsze.
Jako jeden pierwszych przykładów takiego ujęcia wymienia się pracę z roku 1896 (Campbell, 1896). Ze względu na podobieństwo do współczesnych opracowań przypomnimy jednak analizę nieco późniejszą, choć też „nobliwą”, bo opublikowaną sto lat temu (Cole, Eales, 1917). Kilkunastostronnicowy przegląd piśmiennictwa z zakresu anatomii porównawczej od 1543 do 1869 roku autorzy zilustrowali wykresami liczebności publikacji, które ułożone na osi czasu przedstawiały historyczny rozwój tej dyscypliny:
−
dla poszczególnych subdyscyplin anatomii porównawczej,
−
w trzech krajach: Anglii i Francji (il. 1) oraz w Niemczech,
−
ogółem.
Ilustracja 1. Rozkład liczby publikacji z dziedziny anatomii porównawczej (bez anatomii będącej częścią medycyny) w latach 1543-1869 w Anglii i Francji
Źródło: Cole, Francis J.; Eales Nellie B. (1917). The history of comparative anatomy: a statistical analysis of the literature. Science Progress, (1916-1919), vol. 11, issue 44, ilustracje na stronach nienumerowanych
Zgodnie z oczekiwaniami autorów, opracowane przez nich grafiki zapewniły lepsze zrozumienie, a także skrótowość i obiektywność wywodu. Umożliwiły też wskazanie punktów zwrotnych dyscypliny – ujawniając spory potencjał diagnostyczny zaangażowanych do tego metod prostej statystyki opisowej. Rosnąca liczba takich analiz skłoniła Edwarda Wyndhama Hulme’a (1923) do określenia ich mianem „bibliografii statystycznej” (statistical biliography), jako połączenia bibliografii (przedmiotu analizy) i statystyki (metody analizy). Ten układ definicyjny nieco inaczej zwerbalizowany („zastosowanie metod matematycznych i statystycznych do książek i innych środków komunikacji”*)1
zachował Alan Pritchard (1969, s. 349), wprowadzając termin „bibliometria”.
Nazwa szybko przyjęła się wśród badaczy nie tylko z tego powodu, że wyeliminowała możliwe błędne skojarzenia z bibliografią piśmiennictwa z zakresu statystyki, ale także dlatego, że jednocześnie wywoływała pożądane skojarzenia z „metriami”, które rozwijały się wówczas w obszarach innych nauk (np. ekonometria na gruncie ekonomii). Dynamiczny rozwój owych „metrii” sprawił, że wiele z nich awansowało do rangi metod pomocniczych swoich nauk, rozwijając spektrum dostosowanych do ich specyfiki narzędzi badawczych.
Użyteczność bibliometrii będziemy przedstawiać w nawiązaniu do prakseologicznego i naukoznawczego ujęcia informatologii, które zaproponowała Maria Dembowska (1999). Będziemy zatem omawiać dorobek bibliometrii w kontekście działalności informacyjnej, głównie w odniesieniu do nauki i informacji naukowej. Szczególnym walorem bibliometrii, który będziemy starali się uwypuklić, są jej możliwości diagnostyczne (użyteczność w zbieraniu faktów o piśmiennictwie) i prognostyczne (możliwość przewidywania dalszych trendów w tym piśmiennictwie).
Rozwój i zmiany
Definicja bibliometrii, którą wprowadził Pritchard, rezygnuje z bezpośrednich związków z bibliografią. Tymczasem bibliometria uprawiana jest dzisiaj głównie jako ilościowa analiza metadanych z baz bibliograficznych. Przypomnijmy, że metadane to przede wszystkim obiekty informacji naukowej, co determinuje bezpośredni związek bibliometrii właśnie z informacją genrowaną przez naukę. W latach 90. XX w. skłoniło to niektórych badaczy do wprowadzenia szerszego terminu „informetria”. Przez pewien czas oba terminy funkcjonowały równolegle, jednak termin „informetria” używany jest obecnie rzadziej (Hood, Wilson, 2001). Pozostał w nazwie cyklicznych konferencji oraz czasopism (np. Journal of Informetrics), zainicjowanych w okresie równoległego stosowania obu terminów.
*1Oryg.: “Application of mathematics and statistical methods to books and other media of communication”.
Związek bibliometrii z bazami bibliograficznymi najsilniej uwidacznia się w zakresie analiz piśmiennictwa naukowego. Najbardziej znanym przykładem ich stosowania są tu analizy cytowań – własny i odrębny koncepcyjnie wkład Eugene’a Garfielda do nauki o informacji z czasów projektowania Science Citation Index (SCI, lata 50. XX wieku).
Nowatorstwo ujęcia polegało na wprowadzeniu (do wyszukiwania) metadanych przypisów bibliograficznych z artykułów z czasopism. Wraz z indeksem permutacyjnym, opartym na słowach z tytułu artykułu, indeksy dokumentów cytowanych miały zastąpić czasochłonne i zawodne opracowanie rzeczowe dokumentów gromadzonych w bazie. Pomysł odwoływał się do praktyki wyszukiwania literatury przedmiotu poprzez spisy bibliografii załącznikowej. Ten dość powszechny sposób zbierania literatury przedmiotu przez naukowców, zwany „techniką kuli śniegowej”, po prostu zautomatyzowano.
Indeksowanie cytowań stało się tak ważnym wyróżnikiem SCI, że bazę tę – w istocie bazę bibliograficzną – i następne, powtarzające jej projekt, nazywamy indeksami cytowań.
Systemy tego typu ułatwiają badaczom wyszukanie artykułów cytujących tę samą pracę, tego samego autora, to samo czasopismo, zbieżnych czy to pod względem metody, czy przedmiotu opracowania. Wynik takiego wyszukiwania jest lepszy w porównaniu z wynikiem uzyskanym przez wyszukiwanie oparte na klasyfikacji rzeczowej dokumentu, jak dowodził Garfield w opublikowanym w Science w 1955 roku artykule Citation indexes for science. A new dimension in documentation through association of ideas (Garfield, 1955). System cytatów bibliograficznych stał się nowym językiem informacyjno-wyszukiwawczym, który operuje nie pojęciami, lecz skojarzeniami.
Niebawem okazało się, że indeksowanie cytowań zwiększyło nie tylko możliwości wyszukiwawcze w bazach, ale także możliwości analityczne bibliometrii opartej na materiale z tych baz. Wkrótce po udostępnieniu SCI, analizy na zgromadzonym w niej materiale opublikował Derek J. de Solla Price (1965). Jego praca pt. Networks of scientific papers. The pattern of bibliographic references indicates the nature of the scientific research front, która ukazała się w Science w 1965 roku, przedstawiała jakościowo nową wartość. W ocenie wielu badaczy, była to nie tyle praca nowatorska, co rewolucyjna (Glänzel, 2003), dyktująca nowe, szersze ujęcie analiz bibliometrycznych. Z tej właśnie pracy wywodzi się nurt badawczy bibliometrii wielowymiarowej, zdobyczą której są mapy wiedzy. Nieco szerzej omówimy to ujęcie w zestawieniu metod bibliometrii przedstawionym w dalszej części artykułu.
Piśmiennictwo nie ujęte w bazach długo (praktycznie do lat 90. XX wieku, tj. do czasu upowszechnienia się mikrokomputerów) pozostawało poza możliwościami takich analiz. Zmieniło się to dopiero wraz z dość powszechnym przekształcaniem się bibliografii papierowych (najczęściej kartotek) w bibliograficzne bazy danych. Rozkwit cyfrowych informatorów naukowych zwiększył zakres objętego takimi bibliografiami piśmiennictwa. Badacze dyscyplin szczegółowych, w zakresie których wciąż występują luki, decydują się na samodzielne tworzenie takich baz, wiedząc, że ten ogromny wysiłek zagwarantuje odpowiedni poziom merytoryczny i jakościowy przyszłych analiz (Kolasa, 2013).
Polska definicja terminu „bibliometria” respektuje jej związek z bibliografią, określając bibliometrię jako „badanie stanu ilościowego i tendencji rozwoju piśmiennictwa metodą statystyczną na podstawie spisów bibliograficznych lub statystyki wydawnictw” (Bibliometria, 1979, s. 30).
Przez piśmiennictwo w analizach bibliometrycznych rozumiane są następujące zbiory dokumentów:
−
dokumenty „wytworzone” w ramach danej dyscypliny naukowej czy też działalności danego podmiotu nauki (analizy produktywności),
−
dokumenty, które do tych publikacji się odnoszą (analizy cytowań).
Metody bibliometryczne stosowane do jednego tylko typu wyżej wymienionych publikacji należą do grupy metod bibliometrii zwykłej (opisowej). Badacze posługują się tu najczęściej wykresami liczebności, rangowaniem, ustalaniem pozycji obiektów w rankingu itp. Dysponując odpowiednio dużym materiałem, podejmują też próby testowania hipotez dotyczących trendów owego piśmiennictwa, sięgając do metod statystyki matematycznej. W analizach cytowań posługują się różnego rodzaju indeksami (wskaźnikami), w tym np. szeroko znanym indeksem Hirscha czy wskaźnikami wpływu (np. najbardziej znany impact factor – IF). Szersze omówienie tych mierników przedstawiono już w piśmiennictwie, także polskim (np. Osiewalska, 2008 i 2009). Pełniejsze wykorzystanie możliwości bibliometrii daje jednoczesna analiza publikacji i stanowiącego jej integralną część spisu literatury przedmiotu. Dla lepszego zrozumienia różnicy pomiędzy tymi zbiorami piśmiennictwa publikacje cytujące nazywane są tu dokumentami pierwotnymi zaś cytowane dokumentami wtórnymi. Analiza prowadzi do wyodrębnienia skupień publikacji, które cytują podobną literaturę przedmiotu (analiza powiązań bibliograficznych – Kessler, 1963) lub też są wspólnie cytowane w innych publikacjach (analiza współcytowań – Marshakova, 1973 oraz Small, 1973). Ta najmłodsza grupa metod należy do bibliometrii strukturalnej i wykorzystywana jest do tworzenia map wiedzy. Skupienia dokumentów wyodrębnione metodą powiązań bibliograficznych (nawiązujące do tych samych prac z przeszłości) uważane są za front badawczy formowany wokół danego zagadnienia. Skupienia publikacji wyodrębnione metodą współcytowań (wspólnie cytowanych w nowszych pracach) tworzą bazę badawczą dla realizowanych na ich podstawie projektów naukowych.
Automatyzacja bibliometrii w bazach z nawigacją fasetową
W wielu bazach danych rejestrujących piśmiennictwo: w katalogach, repozytoriach, bazach bibliograficznych, a także w indeksach cytowań, zaczynamy obserwować działanie programów, które wspierają zachowania informacyjne użytkownika, dostarczając mu filtrów ułatwiających wybór odpowiednich cech poszukiwanych obiektów. Podpowiedzi systemu zawierają statystyki liczebności dokumentów według tych cech. Statystyki pełnią tam rolę informacyjną w procesie dalszego filtrowania danych (tzw. nawigacja fasetowa).
Korzenie faset sięgają lat 30. XX wieku i związane są z działalnością hinduskiego matematyka i bibliotekarza Shiyali Ramamrita Ranganathana. Opis koncepcji i przykłady działania nawigacji fasetowej w katalogach online przedstawia Stanisław Skórka (2014).
Naszym celem jest zwrócenie uwagi na bibliometryczny walor nawigacji fasetowej, na fakt, że dostarcza ona gotowych i bieżąco aktualizowanych analiz należących do podstawowego i najstarszego gatunku tzw. bibliometrii opisowej.
Ilustrację tych funkcjonalności przedstawimy w nawiązaniu do prezentowanej już statystycznej analizy piśmiennictwa z zakresu anatomii porównawczej z 1917 roku. Wyszukiwanie dla terminu „comparative anatomy” przeprowadzimy na materiale z bazy o najpełniejszym zakresie metadanych, czyli z indeksu cytowań. Jako że analiza z roku 1917 odnosiła się do piśmiennictwa krajów europejskich, wybraliśmy bazę Scopus, ponieważ ma ona większe pokrycie piśmiennictwa naukowego w tym regionie świata niż baza Web of Science. W kwerendzie wykluczono publikacje z ostatnich 3 lat, aby „uodpornić” wynik na zmiany wynikające z bieżącej aktualizacji bazy. Odpowiedź systemu oraz formalne warunki kwerendy przedstawia zrzut ekranowy prezentowany na ilustracji nr 2.
Ilustracja 2. Wyniki kwerendy w bazie Scopus odpowiadającej przeglądowi z roku 1917
Źródło: Scopus, 2017.05.24
Prawą część ilustracji nr 2 zajmuje wykaz dokumentów relewantnych, ułożony w malejącym porządku cytowań: od dokumentów cytowanych najczęściej do dokumentów jeszcze niecytowanych. Lewą część zajmuje nawigacja fasetowa, która zawiera listę wszystkich dziesięciu (na dzień dzisiejszy) faset tej bazy. Dla naszych potrzeb rozwinęliśmy trzy z nich: autor, obszar tematyczny, kraj.
Ogląd całego wyniku z bazy jest dla użytkownika dostępny zarówno w postaci zagregowanych danych liczbowych, jak i szczegółowych metadanych każdego dokumentu z osobna. Użytkownik z jednej strony ma charakterystyki całościowe, z drugiej zaś zachowuje możliwości poznawania każdej pozycji literaturowej, która – w jakiejś części – jest dla niego także dostępna do czytania. Nawet na tym krótkim podglądzie widzimy, że spośród 12 artykułów dwa są w otwartym dostępie (open access). Zauważmy dodatkowo, że charakterystyki liczbowe danych dla każdej kategorii tworzą rankingi. Na ilustracji nr 2 (kolumna z lewej strony) zapewniliśmy widoczność rankingu najczęściej piszących autorów, najbardziej produktywnych obszarów tematycznych oraz najbardziej produktywnych krajów.
Rozwinięcie każdej fasety – np. według atrybutu „kraj” – otwiera możliwości oglądu danych na wykresach. Ilustracja nr 3 przedstawia zrzut ekranowy wygenerowanego na materiale z bazy wykresu liczebności publikacji na osi czasu w Wielkiej Brytanii.
Ilustracja 3. Rozkład liczby publikacji z dziedziny anatomii porównawczej (bez anatomii będącej częścią medycyny) w latach 1880-2014 w Wielkiej Brytanii
Źródło: Scopus, 2017.05.24
Użytkownik może także wygenerować wykres porównujący produktywność poszczególnych krajów w zakresie omawianej dyscypliny, który reprodukujemy na ilustracji nr 4.
Ilustracja 4. Produktywność piśmiennictwa w zakresie anatomii porównawczej (bez anatomii będącej częścią medycyny) według krajów ogółem
Źródło: Scopus, 2017.05.24
Na koniec zwróćmy uwagę na różne zakresy czasowe wyników na ilustracjach nr 3 i 4. Najstarszy dokument zarejestrowany w bazie jako należący do dorobku autora z Wielkiej Brytanii pochodzi z roku 1880, dla autora z któregoś z krajów wymienionych w tabelce z danymi do ilustracji nr 4 – z roku 1862. Na przykładzie Wielkiej Brytanii (il. 3) widzimy, że w bazie oferowana jest raczej informacja o aktualnym stanie rozwoju piśmiennictwa danej dziedziny.
Ta aktualność stanowi ważny atut kwerend bibliometycznych w prowadzonych przez naukowców w bazach, wspomagając ich w formułowaniu własnej strategii publikacyjnej na podstawie informacji o bieżących trendach badanego piśmiennictwa.
Bibliometria i zakres bazy
Charakterystyki bibliometryczne z baz danych dla cech formalnych dokumentów pierwotnych będą zawsze identyczne, niezależnie od zakresu bazy. Inaczej będzie z charakterystykami cech formalnych dokumentów wtórnych. Liczba cytowań danego autora, czasopisma, dokumentu w bazie zależeć będzie od rodzaju bazy.
Porównywanie systemów wyszukiwania informacji w tekstowych bazach danych może być dokonywane za pomocą eksploracji tekstu (text mining) w ramach eksploracji danych (data mining), jednej z metod analizy danych na pograniczu statystyki i informatyki. Wypracowane na gruncie wyszukiwania dokumentów (information retrieval), a wykorzystywane na gruncie eksploracji danych miary ocen wyszukiwania to:
−
precyzja (precision) – procent relewantnych dokumentów, czyli liczba wyszukanych trafnych dokumentów do liczby wszystkich wyszukanych dokumentów, a także
−
zwrot lub odpowiedź (recall) – procent relewantnych dokumentów z całego zbioru.
Są to te przewagi wyszukiwania poprzez cytowania, na które zwrócił uwagę Garfield, rekomendując wykorzystanie indeksu cytowań w bibliografiach wielodziedzinowych.
Odmienne stanowisko w tej sprawie zajął John Tukey, który uważał, że większą użyteczność mają dziedzinowe indeksy cytowań i sam zainicjował indeks z zakresu statystyki matematycznej i teorii prawdopodobieństwa na Uniwersytecie w Princeton na początku lat 60. XX w.
Przyjrzyjmy się zatem, jaki wpływ na wynik wyszukiwania, a przez to na charakterystyki bibliometryczne, ma zakres indeksów cytowań.
W pierwszej kolejności zwróćmy uwagę na różne kryteria doboru materiału do indeksowania w tych bazach. W bazach interdyscyplinarnych dobór źródeł traktowany jest bardzo rygorystycznie. Częściowo opiera się na kryteriach formalnych, w zakresie jakości czasopisma istotną rolę pełni jego cytowalność. Bazy dziedzinowe mają tu większą swobodę – są po prostu znacznie mniejsze. Rolę arbitrów w tym zakresie przejmują w nich naukowcy (tak jak we wspomnianym już pierwszym indeksie dziedzinowym – jego inicjator Tukey). Własne doświadczenia w tym względzie mają biblioteki akademickie w Polsce, które prowadzą od lat 90. XX w. dziedzinowe bazy bibliograficzne: BazTech, BazEkon, BazHum, Agro, Polską Bibliografię Lekarską itp. Bazy te cieszą się ogromną popularnością wśród naukowców, a MNiSW uznaje je za swoje bazy referencyjne. Biblioteki prowadzą tu ścisłą współpracę ze środowiskiem naukowym, co skutkuje bardziej merytorycznymi niż formalnymi kryteriami doboru źródeł do prowadzonych przez nie baz. Zbiór rejestrowanego piśmiennictwa jest tu bardziej zróżnicowany i adekwatny dla dyscypliny. Dla przykładu BazEkon oprócz czasopism ekonomicznych rejestruje także materiały z konferencji, dokumenty robocze (working papers) instytucji realizujących badania naukowe z zakresu nauk ekonomicznych, a także prace habilitacyjne uczelni tworzących Konsorcjum BazEkon.
Następnie zwróćmy uwagę, że wskaźniki bibliometryczne z baz dziedzinowych precyzyjniej określają przynależność podmiotów nauki do danej dyscypliny – odpowiedź z bazy zawsze pochodzi ze źródeł dziedzinowych. Ma to znaczenie na przykład w ustalaniu wkładu pracy danego autora w rozwój jego dyscypliny. Wyższa precyzja wyniku z baz dziedzinowych wpływa także na charakterystyki bibliometryczne czasopism. Prosta liczba cytowań, ale również inne wskaźniki (np. indeks Hirscha) z tych baz dają czytelną informację o wpływie danego czasopisma w danej nauce szczegółowej. Ma to ogromne znaczenie dla naukowców, którzy dążą do opublikowania swoich prac w periodykach, będących w centrum uwagi własnego środowiska naukowego. Bazy dziedzinowe diagnozują te czasopisma w sposób czytelny prostą liczbą cytowań, ale czy wartość tej charakterystyki jest dostatecznej jakości? Testem dla bazy BazEkon i wyników programu bibliometrycznego Cytowania w BazEkon było sprawdzenie obecności i stanu charakterystyk bibliometrycznych czasopism wysoko ocenionych przez zespoły ekspertów tej dziedziny w czerwcu roku 2015. Wyniki tego porównania potwierdziły zarówno wysoką kompletność czasopism wybitnych i wyróżniających się w bazie BazEkon, jak i korelację liczby cytowań tych czasopism z programu Cytowania w BazEkon z punktacją nadaną przez eksperów, co natychmiast zostało zakomunikowane ekonomistom (Osiewalska, 2016).
Dostrzeżoną przez Garfielda zaletą baz interdyscyplinarnych jest możliwość śledzenia wpływu badań z jednej dyscypliny szczegółowej w innych naukach. Większy zwrot z bazy wielodziedzinowej daje autorom informację o całościowej percepcji ich dorobku. Zwiększa też możliwości oceny wpływu czasopism publikujących badania z wielu obszarów nauki. Przykładem, doskonale ilustrującym te niuanse, jest porównanie IF z bazy WoS z IF z bazy dziedzinowej RePEc (Research Papers in Economics) dla kilku czasopism ekonomicznych i czasopisma Journal of the American Statistical Association (JASA), w którym artykuły przedstawiające zastosowania statystyki w ekonomii ukazują się stosunkowo rzadko. W bazach WoS cytowania do tego czasopisma pochodzą także z innych czasopism statystycznych oraz z czasopism specjalizujących się w zastosowaniach statystyki w innych dziedzinach wiedzy (np. właśnie ekonomii ale też medycynie, biologii, technice itp.). Jak pokazujemy na ilustracji 5, wpływ JASA w bazie interdyscyplinarnej (IF na zasobie baz WoS) jest wyższy niż w bazie dziedzinowej (IF na zasobie bazy RePEc) i jest to zrozumiałe. Interesująca jest jednak możliwość określenia wpływu tego czasopisma na ekonomistów, co umożliwia w prosty sposób baza dziedzinowa.
Ilustracja 5. Porównanie wskaźników bibliometrycznych w bazie interdyscyplinarnej (WoS) i bazie RePEc
Źródło: Osiewalska Anna (2009). Bibliometryczna analiza czasopism z zakresu nauk ekonomicznych. Rozprawa doktorska. Katowice: Uniwersytet Śląski, s. 58.
Wnioskiem z rozważań o wpływie zakresu bazy na wartość diagnostyczną jej wskaźników bibliometrycznych niech będzie potwierdzenie użyteczności zdecentralizowanego modelu baz danych. Model ten sprawdził się w Polsce w roku 2015, gdy dane z polskich czasopism zostały przekazane do bazy POL-index przez biblioteki akademickie indeksujące te czasopisma w swoich bazach dziedzinowych.
Biliometryczna diagnostyka czasopisma naukowego
Spora część publikacji bibliometrycznych poświęcona jest analizom pojedynczych czasopism lub grup czasopism danej dziedziny szczegółowej. Badania tego typu nie są zautomatyzowane w indeksach cytowań i wymagają sporego wysiłku do ich przeprowadzenia.
Analizy bibliometryczne zawartości czasopisma w danym zakresie czasowym w zakresie dokumentów pierwotnych na ogół przedstawiają:
−
liczbę artykułów na rok,
−
liczbę publikujących autorów,
−
liczbę artykułów w danym języku.
Cennym uzupełnieniem jest przedstawienie grupy autorów o najwyższej liczbie opublikowanych artykułów oraz o najwyższej liczbie punktów za współautorstwo. Przy tej okazji przedstawiane są charakterystyki liczby artykułów jedno- i wieloautorskich. Analizy często uzupełniane są danymi o cytowalności artykułów badanego czasopisma.
W zakresie dokumentów wtórnych (cytowań z wszystkich artykułów badanego czasopisma w zadanym zakresie czasowym) badane są zazwyczaj:
−
wiek cytowanej literatury,
−
udział pozycji w danym języku w ogólnej liczbie cytowanych prac,
−
udział artykułów z czasopism w ogólnej liczbie cytowanych prac,
−
liczba tytułów cytowanych czasopism połączona ze wskazaniem tytułów najczęściej cytowanych,
−
liczba cytowanych autorów połączona ze wskazaniem autorów najczęściej cytowanych.
Analiza czasopisma staje się szczególnie atrakcyjna, jeśli metodami bibliometrii wielowymiarowej (z udziałem eksperta dziedzinowego) uda się wyodrębnić skupienia artykułów tworzących fronty badawcze wokół konkretnych zagadnień szczegółowych. Przykładem takiej analizy jest portret czasopisma Folia Oeconomica Cracoviensia (Osiewalska, Osiewalski, 2013). Wartość dokumentacyjna i diagnostyczna analiz bibliometrycznych jest dla środowiska naukowego na tyle duża, że taka forma opisu czasopisma staje się coraz częstsza.
Bibliometria – narzędzie diagnostyczne dla nauki i polityki naukowej
Zdobycze bibliometrii spowodowały zmianę jej roli społecznej. Obok swojej głównej funkcji poznawczej i dokumentacyjnej bibliometria zaczęła też spełniać funkcję pomocniczą w zagadnieniach związanych z ewaluacją czasopism i podmiotów nauki, a zatem też z diagnozowaniem ich działalności i rozwoju nauki. W tym zakresie bibliometria jest wykorzystywana przez naukometrię. Stosowane tu analizy produktywności oparte na opisach bibliograficznych mają charakter ilościowy, zaś analizy oparte na cytowaniach wprowadzają element jakości. Opiera się to na założeniu, że jeśli dana publikacja wnosi coś istotnego do nauki, to jest często cytowana przez autorów innych publikacji.
Twórczym rozwinięciem tej heurystyki jest algorytm PageRank opatentowany w 1998 roku, wciąż wykorzystywany (choć już w bardzo zmodyfikowanej postaci) przez popularną wyszukiwarkę internetową Google. Algorytm nadaje indeksowanej stronie internetowej określoną wartość liczbową oznaczającą jej jakość. Wartość ta związana jest z liczbą odnośników do tej strony, gdzie odnośniki ważone są własną wartością PageRank. Tym samym, jeśli na daną stronę powołuje się strona, która sama ma wysoką ocenę, ma to większe znaczenie, niż gdy na tę samą stronę powołuje się mało popularna strona. Wobec niemożności przeglądnięcia wszystkich odpowiedzi z Internetu, jako pierwsze podawane są odpowiedzi ze stron o wyższej ocenie. Autor patentu Lawrence Page wskazuje, że inspiracją były dla niego osiągnięcia Garfielda (Page, 1978). Implementacja algorytmu w bazach danych rejestrujących piśmiennictwo nastąpiła jednak stosunkowo późno – w roku 2007 – za sprawą serwisu SCImago Journal & Country Rank, opartego na bazie Scopus. A przecież trudno nie dostrzec analogii masowej produkcji piśmienniczej w nauce z „galaktyką Internetu”. Pełna percepcja odpowiedzi z dużych baz rejestrujących piśmiennictwo raczej nie jest możliwa, z pewnością jest mało prawdopodobna. Jeśli użytkownik wyszukuje dokumenty według nazbyt ogólnych kryteriów, systemy podadzą pełny wynik (jak w naszym przykładzie z ilustracji nr 2 – listę ponad 66 tys. dokumentów) i wiele możliwości jego ułożenia. Uporządkowanie odpowiedzi w malejącym porządku cytowań, tak jak to widzimy na ilustracji nr 2, daje możliwość zapoznania się w pierwszej kolejności z wynikami, które już zostały przyswojone przez innych badaczy.
Osobnym zagadnieniem jest podnoszony wciąż problem, czy „wartość” (wyłącznie przecież recenzowanych) publikacji można mierzyć „wartością” czasopism, w których te publikacje się ukazują i jak ową wartość ustalać. Przykłady z innych krajów pokazują, że proces takiej ewaluacji może być prowadzony w systemie eksperckim, parametrycznym lub mieszanym. Takie też były losy ewaluacji czasopism w Polsce. Najpierw były to listy ustalane przez komitety ekspertów Komitetu Badań Naukowych, następnie listy ustalane wyłącznie w oparciu o kryteria formalne (w tym bibliometryczne). Ostatnia ewaluacja łączyła ocenę formalną z ekspercką. Praktykę wykorzystania bibliometrii do oceny nauki w Polsce do roku 2012 przedstawia praca Anety Drabek (2012). Sposób oceny publikacji w procesie kategoryzacji jednostek naukowych w Polsce w roku 2013 omawia Emanuel Kulczycki (2017). Przeprowadzona dalej przez Kulczyckiego, Marcina Korzenia i Przemysława Korytkowskiego (2017) analiza blisko 1 miliona zdarzeń ewaluacyjnych z kategoryzacji przeprowadzonych w Polsce w latach 2009-2012 proponuje pewne korekty i podsuwa propozycje zmian, jednak nie stanowi fundamentalnej krytyki przyjętych rozwiązań.
Rozważając za i przeciw różnych sposobów prowadzenia ewaluacji czasopism, warto zaznajomić się z interpretacją rankingów czasopism ekonomicznych, zaproponowaną przez Alireza Tahai i Michaela Meyera (1999) oraz Anne‐Wil Harzing i Rona van der Wala (2008). Autorzy ci odwołali się do mikroekonomicznych badań nad zachowaniami konsumentów. Kategoryzację możliwych podejść oparli na preferencjach deklarowanych (stated preference) lub preferencjach ujawnionych (revealed preference). Metoda preferencji deklarowanych dotyczy hipotetycznych (deklarowanych) zachowań rynkowych konsumentów i opiera się na danych zgromadzonych a priori za pomocą wywiadów i ankiet, które służą do rejestracji intencji wyrażanych przez konsumentów w momencie badań. Preferencje ujawnione stanowią odbicie rzeczywistych decyzji rynkowych konsumentów. Podstawą ich analizy jest najczęściej materiał statystyczny zgromadzony w wyniku rejestracji danych o przeszłych wyborach rynkowych konsumentów (Varian, 2005). Rankingom czasopism opartym na opinii środowisk lub zespołów naukowych (czy komisji ekspertów) przeciwstawiono rankingi oparte na badaniach bibliometrycznych; pierwsze odpowiadałyby preferencjom deklarowanym, drugie ujawnionym poprzez cytowanie czasopisma. Przeprowadzone badania na grupie czasopism ekonomicznych wykazują dość duży stopień korelacji pomiędzy rankingami powstałymi w efekcie użycia obu podejść (Mingers, Harzing, 2007). W praktyce podejścia te współistnieją: rankingi tworzone przez ekspertów stanowią często punkt wyjścia dla analiz bibliometrycznych, rankingi oparte na cytowalności czasopism są uważnie śledzone przez naukowców, stając się dodatkowym źródłem ich przyszłych opinii i ocen.
W roku 2015 ocenę parametryczną czasopism w Polsce przeprowadzono, łącząc ocenę formalną i ekspercką. W stosunku do maksymalnie 10 punktów za ocenę formalną, na którą składały się między innymi produktywność czasopisma (okres jego wydawania i liczba artykułów na rok) oraz jego cytowalność międzynarodowa, eksperci dysponowali maksymalnie 5 punktami. Teoretycznie eksperci mogli więc doprowadzić do sporych przetasowań w stosunku do wyniku, który powstał w wyniku oceny formalnej. Badanie przeprowadzone na grupie czasopism z zakresu nauk ekonomicznych (Osiewalski, Osiewalska, 2017) pokazało, że ocena formalna wyjaśniała 26% oceny eksperckiej. Poszukiwanie dalszych determinant ocen ekspertów ujawniło jej silny związek z nieujętym w roku 2015 następującymi dodatkowymi kryteriami formalnymi: cytowalnością krajową czasopisma oraz jego związku z Polską Akademią Nauk. Włączenie tych danych do modelu zwiększyło wyjaśnienie ocen ekspertów do niemal 50%. Na uwagę zasługuje fakt, że charakterystyki bibliometryczne czasopism (ich produktywność a zwłaszcza cytowalność) utrzymały się w ostatecznym modelu podsumowującym to badanie.
Podsumowanie
Pierwsze prace bibliometryczne były de facto bardzo skrótowymi ilościowymi przeglądami dziedzinowymi o charakterze eksperckim. Rozwój systemów i rozwiązań w zakresie informacji naukowej, jak pokazaliśmy w pracy, umożliwił dostęp do bogatych i zróżnicowanych danych na temat produkcji piśmienniczej, cytowań i powiązań między publikacjami. Postęp w tym obszarze obrazuje użyteczność bibliometrii w monitorowaniu i ocenie piśmiennictwa naukowego, a zatem też kierunków rozwoju dyscyplin naukowych, cyklu życia publikacji, wpływu różnych autorów i koncepcji naukowych, siły frontów badawczych itp. Dane z tego monitoringu mogą też służyć podmiotom nauki (w tym autorom, redakcjom czasopism, władzom uczelni) np. w diagnozowaniu swojej obecnej pozycji.
Bibliografia
1.
Bibliometria (1979). W: Maria Dembowska red. Słownik terminologiczny informacji naukowej. Wrocław: Ossolineum, s. 30.
2.
Campbell, Frank B.F. (1896). The theory of the national and international bibliography: with special reference to the introduction of system in the record of modern literature. London: Library Bureau.
3.
Cole, Francis J.; Eales Nellie B. (1917). The history of comparative anatomy: a statistical analysis of the literature, Science Progress (1916-1919). vol. 11, issue 44, pp. 578-596.
4.
Dembowska, Maria (1999). Bibliologia, bibliografia, bibliotekoznawstwo, informacja naukowa: wybór prac. Warszawa: nakł. Autorki.
5.
Drabek, Aneta (2012). Wykorzystanie bibliometrii w polityce naukowej. Biuletyn EBIB, nr 130. http://open.ebib.pl/ojs/index.php/ebib/article/view/504 (odczyt: 31.05.2017).
6.
Garfield, Eugen (1955). Citation indexes for science: a new dimension in documentation through association of ideas. Science, vol. 122, issue 3159, pp. 108-111.
7.
Garfield, Eugen (1972). Citation analysis as a tool in journal evaluation. Science, vol. 178, issue 4060, pp. 471-479.
8.
Glänzel, Wolfgang (2003). Bibliometrics as a research field. A course on theory and application of bibliometric indicators. Course Handouts.
http://nsdl.niscair.res.in/jspui/bitstream/123456789/968/1/Bib_Module_KUL.pdf (odczyt: 31.05.2017).
9.
Harzing, Anne‐Wil; Wal, Ron van der (2009). A Google Scholar h-index for journals: an alternative metric to measure journal impact in economics & business? Journal of the American Society for Information Science and Technology, vol. 60, issue 1, pp. 41-46.
10.
Hood, William W.; Wilson, Concepción S. (2001). The literature of bibliometrics, scientometrics, and informetrics. Scientometrics, vol. 52, issue 2, pp. 291-314.
11.
Hulme, Edward W. (1923). Statistical bibliography in relation to the growth of modern civilization. London: Grafton & Co.
12.
Kessler, Maxwell M. (1963). Bibliographic coupling between scientific papers. American Documentation, vol. 14, issue 1, pp. 10-25.
13.
Kolasa, Władysław M. (2013). Historiografia prasy polskiej (do 1918 roku): naukometryczna analiza dyscypliny 1945-2009. Kraków: Wydawnictwo Naukowe Uniwersytetu Pedagogicznego.
14.
Kulczycki, Emanuel (2017). Assessing publications through a bibliometric indicator: the case of comprehensive evaluation of scientific units in Poland. Research Evaluation, vol. 26, issue 1, pp. 1-12.
15.
Kulczycki, Emanuel; Korzeń, Marcin; Korytkowski, Przemysław (2017). Toward an excellence-based research funding system: evidence from Poland. Journal of Informetrics, vol. 11, issue 1, pp. 282-298.
16.
Marshakova, Irina V. (1973). Sistemasvjazejmezdu dokumentami postoennaja na osnovjessylok (podannym SCI). Naucno-Tekhniceskaya Informacja, ser. 2, nr 6, s. 3-8.
17.
Mingers, John; Harzing, Anne-Wil (2007). Ranking journals in business and management: a statistical analysis of the Harzing dataset. European Journal of Information Systems, vol. 16, issue 4, pp. 303-316.
18.
Osiewalska, Anna (2008). Mierniki oceny czasopism i naukowców. Biuletyn EBIB, nr 8 (99). http://www.ebib.pl/2008/99/a.php?osiewalska (odczyt: 31.05.2017).
19.
Osiewalska, Anna (2009). Bibliometryczna analiza czasopism z zakresu nauk ekonomicznych. Rozprawa doktorska. Katowice: Uniwersytet Śląski.
20.
Osiewalska, Anna (2016). Scientific information systems BazEkon and citations in BazEkon: their relation to the expert evaluation of polish journals in economic sciences. W: Paweł Lula, Tomasz Rojek ed. Knowledge, economy, society: contemporary aspects of economic transformations. Cracow: Foundation of the Cracow University of Economics, pp. 209-217.
21.
Osiewalska, Anna; Osiewalski, Jacek (2013). Folia Oeconomica Cracoviensia pod redakcją Andrzeja Iwasiewicza (analiza bibliometryczna). Folia Oeconomica Cracoviensia, vol. 54, s. 35-56.
22.
Osiewalski, Jacek; Osiewalska Anna (2017). Determinanty oceny eksperckiej czasopism z dziedziny nauk ekonomicznych. Nauka, nr 1, s. 125-141.
23.
Page, Lawrence (1978). Method for node ranking in a linked database.
W: USPTO Patent Full-Text and Image Database (PatFT). http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=%2Fnetahtml%2FPTO%2Fsearch-bool.html&r=2&f=G&l=50&co1=AND&d=PTXT&s1=%22Method+node+ranking+linked+database%22.TI.&OS=TTL/%22Method+for+node+ranking+in+a+linked+database%22&RS=TTL/%22Method+for+node+ranking+in+a+linked+database%22 (odczyt: 02.09.2017).
24.
Price, Derek J. de Solla (1965). Networks of scientific papers. The pattern of bibliographic references indicates the nature of the scientific research front. Science, vol. 149, issue 3683, pp. 510-515. Tłumaczenie polskie: Siatki powiązań publikacji naukowych. W: Derek J. de Solla Price (1967). Mała nauka – wielka nauka. Warszawa: Państwowe Wydawnictwo Naukowe, s. 109-123.
25.
Pritchard, Alan (1969). Statistical bibliography or bibliometrics? Journal of Documentation, vol. 25, issue 4, pp. 348-349.
26.
Skórka, Stanisław (2014). Fasety na nowo odkryte. Integrowanie systemów nawigacji i organizowania informacji. Zagadnienia Informacji Naukowej, nr 2, s. 92-109.
27.
Small, Henry (1973). Co-citation in the scientific literature: a new measure of the relationship between two documents. Journal of the American Society for Information Science, vol 24, issue 4, pp. 265-269.
28.
Tahai, Alirez; Meyer, Michael J. (1999). A revealed preference study of management journals` direct influences. Strategic Management Journal, vol. 20, issue 3, pp. 279-296.
29.
Varian, Hal R. (2005). Mikroekonomia: kurs średni. Ujęcie nowoczesne. Warszawa: Wydawnictwo Naukowe PWN.
Małgorzata Kowalska
Instytut Informacji Naukowej i Bibliologii
Uniwersytet Mikołaja Kopernika w Toruniu
Wskaźniki altmetryczne – w kierunku nowego modelu oceny dorobku naukowego? Casus
publikacji z zakresu bibliologii i informatologii*11
Altmetrics indicators – towards a new model
of scientific output assessment? The case
of publications from the library and information
science field
Słowa kluczowe: altmetria, bibliologia i informatologia, metryki alternatywne, ocena dorobku naukowego.
Keywords: alternative metrics, altmetrics, assessment of scientific output, library and information science.
Abstrakt
Niniejszy artykuł omawia istotę wskaźników altmetrycznych w ocenie dorobku naukowego oraz podejmuje próbę udzielenia odpowiedzi na dwa pytania: czy artykuły z zakresu bibliologii i informatologii wyposażone są w metryki alternatywne oraz czy metryki te mogą w przyszłości stać się elementem systemu oceny publikacji naukowych? By odpowiedzieć na te pytania, autorka podejmuje badania alternatywnych wskaźników dla 40 artykułów pochodzących z czasopisma Scientometrics. Przeprowadzone badania dowodzą dużej użyteczności metryk alternatywnych dla publikacji z zakresu bibliologii i informatologii, które są marginalnie reprezentowane w światowych indeksach cytowań, oraz istnienia dodatnich korelacji między liczbą cytowań a liczbą metryk. W związku tym autorka stoi na stanowisku, że altmetryki odegrają w przyszłości doniosłą rolę i mają szansę zrewolucjonizować ocenę wartości i wpływu publikacji naukowych.
Abstract
The author discusses the essence of alternative metrics in research assessment and
attempts to answer the following two questions. Are these alternative metrics used in
*1Badania przeprowadzono w ramach grantu 2013/11/B/HS2/03048 Badanie struktury i dynamiki cyfrowych zasobów wiedzy za pomocą metod wizualizacji.
articles in the field of library and information science? Can these metrics become part of the scientific evaluation system in the future? The author analyses the alternative metrics of 40 articles published in Scientometrics. The results of the analysis show great usability of alternative metrics for publications from the field of library and information science, that are marginally represented in global citation indexes. Positive correlations between citation indicators and the counts of metrics have been found. The author concludes that altmetrics have an important role to play in the future and that they might revolutionize the analysis of the value and impact of scientific publications.
Wprowadzenie
Jedną z konsekwencji procesu cyfryzacji są zmiany zachodzące w procesach komunikacji naukowej, w tym systemach wartościowania publikacji i społecznej ocenie wpływu nauki. Obok tradycyjnych – często niemiarodajnych i wywołujących liczne kontrowersje – wskaźników oceny, jak liczba cytowań, liczba punktów, indeks Hirscha (np. Racki, Drabek, 2013), impact factor (dalej: IF) (np. Sadowska-Hinc, 2012) czy SCImago Journal Rank (dalej: SJR) i Source-Normalized Impact per Paper (dalej: SNIP) (np. Jankowska, 2014), coraz większe zainteresowanie badaczy, wydawców, bibliotekarzy i dostawców danych (por. Jaskowska, 2016; Puckett, Rodgers, Barbrow, 2014) budzą wskaźniki alternatywne (alternative metrics).
Analiza literatury fachowej dowodzi, że termin ten bywa różnie interpretowany (Rychlik, 2013). Z jednej strony (ujęcie węższe) określa się nim komplet wskaźników, które mierzą oddziaływanie pojedynczego artykułu naukowego za pomocą tradycyjnych i społecznościowych mierników (article-level metrics, ALM; zob. np. Fenner, Linn, 2015), z drugiej (ujęcie szersze) – zestaw mierników analizujących wpływ całych czasopism czy też zbiorów monografii z danej dziedziny, jak i aktywność badaczy w wielodyscyplinarnych społecznościach internetowych (m.in. obecność w ogólnych portalach społecznościowych, sieciach dla naukowców, na naukowych blogach, w menedżerach bibliografii i serwisach zakładkowych (por. np. Hoffmann, Lutz, Meckel, 2016).
Dla potrzeb niniejszego artykułu zaadaptowano węższe ujęcie terminu
„wskaźniki alternatywne” („altmetryki”), bowiem w ustaleniach, czy artykuły z zakresu bibliologii i informatologii wyposażone są w metryki alternatywne, oraz czy metryki te mogą w przyszłości stać się elementem systemu oceny publikacji naukowych, ograniczono się do analizy i porównania wskaźników występujących przy danych artykułach naukowych.
Początki zainteresowania metrykami alternatywnymi
Wśród przyczyn zwrócenia uwagi na wskaźniki alternatywne znalazły się dwa rodzaje czynników. Z jednej strony postępujący przyrost prac naukowych, rosnąca popularność otwartych modeli publikowania oraz duża popularność mediów społecznościowych w środowisku badaczy, z drugiej – niemiarodajność tradycyjnych wskaźników bibliometrycznych w odniesieniu do pewnych dyscyplin, a nawet całych dziedzin nauki (np. nauki humanistyczne; zob. Osiński, 2012), oraz ich nieskuteczność w zakresie pomiaru społecznego wpływu nauki.
Po raz pierwszy rolę altmetryk w ocenie dorobku naukowego podnieśli Jason Priem, Dario Taraborelli, Paul Groth i Cameron Neylon. W opublikowanym w 2010 r. artykule pt. Altmetrics: a manifesto autorzy wskazali na konieczność wprowadzenia – uzupełniających względem tradycyjnych wskaźników – nowych form pomiaru oceny dorobku pojedynczego badacza. W ich opinii, metrykami tymi powinny stać się „wywołania” pochodzące z serwisów i narzędzi oferowanych przez Web 2.0, bowiem mogą one wspierać otwartość, umożliwiać dostęp do danych surowych, ułatwiać szersze zaangażowanie w badania naukowe, pozwalać na odnajdywanie wartościowych zasobów naukowych (poprzez filtrowanie postprintów), a także przyspieszać proces recenzowania publikacji (Priem i in., 2010). By tak się stało publikacje, dla których generowane są altmetryki muszą być jednak wyposażone w identyfikatory obiektu cyfrowego (np. DOI).
Rodzaje metryk i narzędzia je agregujące
Ponieważ wskaźniki altmetryczne związane są ze środowiskiem mediów społecznościowych i Web 2.0, do źródeł ich dostarczających należą serwisy charakterystyczne dla tego nurtu, a więc blogi, serwisy społecznościowe typu ogólnego i dedykowane dla naukowców, aplikacje do zarządzania bibliografią, otwarte repozytoria, witryny umożliwiające dzielenie się prezentacjami multimedialnymi, zarządzanie zakładkami i rekomendujące artefakty naukowe. Mimo różnic w zakresie oferowanych funkcjonalności czy odmiennych form dopuszczalnej aktywności użytkowników (m.in. wzmiankowanie, rejestrowanie, pobieranie, rekomendowanie, cytowanie), wymienione źródła pozwalają na śledzenie dorobku naukowego w wielu jego postaciach (artykuły, książki, opisy przypadków, postery, prezentacje, zbiory danych itp.). Tym samym stanowią uzupełniające źródło informacji na temat aktywności naukowej danego badacza czy wagi konkretnego artefaktu w obiegu naukowym. Ponieważ każde ze źródeł za pomocą innych mierników weryfikuje tego rodzaju działania, na rynku pojawiają się narzędzia, które dokonują syntezy danych metrycznych, udostępniając je w jednym miejscu. Do narzędzi takich należą m.in. Altmetric Explorer, PlumX , Impactstory, Altmetric It!, Lagotto, Publisso, CiteIn, Webometrics Analyst 2.0 (szerzej nt. funkcjonalności trzech pierwszych agregatorów zob. Melero, 2015). Przykłady rodzajów agregowanych metryk w trzech najczęściej wykorzystywanych agregatorach prezentuje tabela nr 1.
Tabela 1. Wybrane źródła i rodzaje metryk oraz narzędzia je agregujące
Źródło metryk
Rodzaje metryk
Narzędzia agregujące
Altmetric Explorer
Impactstory
PlumX
Blogi naukowe
wzmianki (mentions)
x
x
x
CiteULike
zakładki (bookmarks)
x
x
x
EBSCO
(bazy danych)
cytowania (citations)
x
eksport/ zapisywanie danych (exports/saves)
x
odsłony (views)
x
pobrania (downloads)
x
wyświetlenia informacji dodatkowych (supporting data views)
x
wyświetlenia pełnych tekstów (full text views)
x
wyświetlenia pełnych tekstów w formacie HTML (HTML views)
x
wyświetlenia pełnych tekstów w formacie PDF (PDF views)
x
wyświetlenia streszczeń (abstracts views)
x
F1000
recenzje (reviews)
x
x
Facebook
komentarze (comments)
x
x
polubienia (likes)
x
x
udostępnienia (shares)
x
x
x
Figshare
odsłony (views)
x
x
pobrania (downloads)
x
x
rekomendacje (recommendations)
x
GitHub
liczba obserwujących (watchers)
x
pobrania (downloads)
x
sieci współpracy (collaborators)
x
subskrybowanie wpisów innych (followers)
x
zainteresowane projektami badawczymi innych (forking)
x
Goodreads
recenzje (reviews)
x
rekomendacje (rating)
x
liczba czytelników (readers)
x
Google+
udostępnienia (shares)
x
x
x
Mendeley
liczba czyteników (readers)
x
x
x
PLoS
wyświetlenia pełnych tekstów (full text views)
x
wyświetlenia pełnych tekstów w formacie HTML (HTML views)
x
x
wyświetlenia pełnych tekstów w formacie PDF (PDF views)
x
x
wyświetlenia streszczeń (abstracts views)
x
Scopus
cytowania (citations)
x
x
x
SlideShare
komentarze (comments)
x
odsłony (views)
x
x
pobrania (downloads)
x
zakładki (bookmarks)
x
Web of Science (indeksy cytowań)
cytowania (citations)
x
x
poziom zainteresowania: liczba odwołań do pełnych tekstów na serwerze wydawcy, pobrań, zapisów w menadżerach bibliografii (usage counts)
Twitter
tweety (tweets)
x
x
x
Źródło: oprac. własne na podstawie Melero, Remedios (2015). Altmetrics – a complement to conventional metrics. Biochemia Medica (Zagreb), vol. 25, iss. 2. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4470104/ (odczyt: 31.03.2017); Rothe, Robin; Schmitz Jasmin (2016). Die mögliche Vielfalt der Impact-Messung: Anbietervergleich von Aggregatoren von Altmetriken. http://zbmedblog.de/?p=383 (odczyt: 31.03.2017).
Jak nietrudno zauważyć, największą liczbę metryk, zarówno tradycyjnych, jak
i alternatywnych, agreguje PlumX firmy Plum Analytics. Zebrana informacja prezentowana jest przy tym w różny sposób, włączając w to wizualizacje, pulpity i widżety. Widoczny w tabeli brak metryk z serwisów ResearchGate czy Academia.eu nie powinien dziwić, bowiem serwisy te dysponują własnymi, bogato rozwiniętymi modułami altmetrycznymi – np. w ResearchGate analizowanymi metrykami są: cytowania (citations), indeks Hirscha
(h-index), liczba czytelników (reads), liczba odsłon profilu (profile views), liczba artefaktów naukowych (research items), sieci współpracy (networking), subskrybowanie profili innych (followers, following), subskrybowanie publikacji innych (followers), współczynnik wpływu naukowego (RG score) i zainteresowane projektami badawczymi innych (projects: total followers, total reads).
Próby standaryzacji wskaźników altmetrycznych
W związku z istnieniem dużej liczby źródeł oraz różnorodnością oferowanych przez nie mierników, stale podejmowane są próby standaryzacji metryk. Z jednej strony działania te zmierzają do wypracowania pewnego rodzaju algorytmów pozwalających na dokonywanie pomiaru w obrębie konkretnego źródła, np. Twitter Index (zob. Bornmann, Haunschild, 2016a, b), z drugiej – do określenia minimalnych kryteriów czy też dobrych praktyk, jakie powinny spełniać wskaźniki altmetryczne (Barros, 2015; Galligan, Dyas-Correia, 2013).
Mimo że konkretne rozwiązania w tym zakresie pozostają na razie w fazie pewnych planów i propozycji, warto zwrócić uwagę na działania podejmowane przez amerykańską organizację standaryzacyjną – National Information Standards Organization (dalej: NISO). W roku 2013 z jej inicjatywy uruchomiony został projekt pod nazwą NISO Altmetrics Initiative, którego celem było dokonanie przeglądu istniejących metryk alternatywnych i wskazanie tych, dla których warto opracować standardy. Rok później, dla potrzeb wypracowania gotowych rozwiązań, do życia powołany został Altmetrics Standards Project. Uruchomione w jego ramach specjalne grupy robocze miały zająć się zdefiniowaniem altmetryk na poziomie pojedynczego artykułu, opisem zastosowań wskaźników altmetrycznych przez różne grupy interesariuszy (m.in. naukowców, bibliotekarzy, wydawców, członków instytucji finansujących badania, dostawców danych, przedstawicieli mediów), przygotowaniem metodologii obliczeń dla nietradycyjnych typów publikacji, opracowaniem strategii poprawy jakości danych i promocją identyfikatorów cyfrowych (Carpenter, Lagace, Bahnmaier, 2016).
Jesienią 2016 r. udostępniono finalną wersję zalecanych praktyk (Outputs of the NIS, 2016). Poza ogólnymi rekomendacjami (zwróceniem uwagi na konieczność jak najszerszego udostępniania altmetryk, sporządzania cytowań zgodnie z obowiązującymi standardami, opracowywania statystyk dotyczących wykorzystywania danych, wdrażania otwartych standardów interoperacyjności i pozyskiwania danych, monitorowania dostępu do danych), w dokumencie zamieszczono swoisty kodeks postępowania dla dostawców danych altmetrycznych (Altmetrics data quality code of conduct). Celem jego opracowania miała być poprawa jakości danych altmetrycznych, a więc zwiększenie przejrzystości ich dostarczania i agregowania oraz zapewnienie replikowania i precyzji w zakresie oceniania zdarzeń online wykorzystywanych do ich generowania. W przygotowanych wytycznych dostawcom danych i właścicielom narzędzi agregujących zalecono podawanie informacji na temat trzech determinantów altmetryk:
1. Transparentności (transparency), a więc wskazania:
a) jakie dane są generowane, zbierane i archiwizowane (T1),
b) jak dane są agregowane i skąd pochodzą (T2),
c) kiedy i jak często dane są aktualizowane (T3),
d) jak można uzyskać dostęp do danych (T4),
e) jak monitorowana jest jakość dostarczanych danych (T5).
2. Replikacji (replicability), tj. opisania:
a) jakie metody dostarczania danych przyjęto (R1),
b) jak dokumentowane są zmiany metod generowania danych i ich skutki (R2),
c) jak dokonywana i dokumentowana jest korekta wykrytych błędów danych (R3),
d) czy dane udostępniane różnym użytkownikom w tym samym czasie są identyczne, a jeśli nie, jak udokumentowano różnice w dostępie dla różnych grup użytkowników (R4),
e) czy i jak dane mogą być niezależnie sprawdzane (R5).
3. Precyzji/dokładności (accuracy) czyli określenia:
a) jaką definicję altmetryk przyjął dostawca (A1),
b) jakie sposoby identyfikacji i poprawy ujawnionych błędów danych zostały wdrożone (A2),
c) jakie są ograniczenia w dostarczaniu danych (A3) (Outputs of the NISO, 2016, s. 19–20).
Każdemu kryterium/zaleceniu przypisano symbol literowo-cyfrowy. Dostawców altmetryk zachęcono do przygotowywania rocznych raportów, zawierających w układzie tabelarycznym opis przestrzegania wszystkich 13 wytycznych wraz z datą sporządzenia tego opisu (w wytycznych NISO w załączniku B zamieszczono klika przykładowych raportów wybranych dostawców i agregatorów danych altmetrycznych, w tym Crossref, Facebooka, Twittera, Wikipedii, PLoS, Plum Analytics, Mendeleya – Outputs of the NISO, s. 33–69).
Wskaźniki altmetryczne artykułów z zakresu biblio- i informatologii – casus artykułów z czasopisma Scientometrics
Ponieważ przegląd piśmiennictwa fachowego, jak i wcześniejsze badania przeprowadzone przez autorkę (Kowalska, 2017) dowiodły, że najczęstszym miejscem publikowania artykułów na temat altmetrii jest czasopismo Scientometrics*,1 podjęto badania nad obecnością metryk alternatywnych w 40 artykułach z tego czasopisma, wyłonionych w wyniku przeszukiwania bazy Scopus z wykorzystaniem bardzo szeroko sformułowanej instrukcji wyszukiwawczej:„altmetrics OR «article level metrics» OR ALM”. Proces wyszukiwania zainicjowano w polu „słowa kluczowe. Następnie listę rezultatów (494 pozycji) zawężono według filtru „źródło: Scientometrics”, co przyniosło w efekcie właśnie wynik 40 artykułów. Wybór tej bazy nie był przypadkowy. Podyktowany został faktem, że od 2015 r. posiada ona własny moduł danych altmetrycznych. Moduł ten pozwala na monitowanie liczby odsłon danego artykułu, pobrań, wpisów na jego temat w serwisach społecznościowych, list ulubionych stron w serwisach zakładkowych, komentarzy na forach i blogach, zapisów w menadżerach zarządzania danymi i na stronach WWW (rys. 1). Zainicjowane badania miały przynieść odpowiedzi na następujące pytania:
1.
Ile z 40 zidentyfikowanych w czasopiśmie Scientometrics artykułów posiadało cytowania, a ile alternatywne metryki?
2.
Jaka była liczba metryk występujących przy pojedynczych artykułach?
3.
Z jakich źródeł pochodziły metryki?, które źródła metryk występowały
najczęściej?
4.
Czy rok publikacji miał wpływ na rozkład i liczbę metryk?
5.
Czy między liczbą cytowań a liczbą metryk zachodziły korelacje?
*1Czasopismo Scientometrics. An International Journal for all Quantitative Aspects of the cience of Science, Communication in Science and Science Policy sprofilowane jest na badania wpływu dorobku naukowego z wykorzystaniem metod ilościowych i publikuje artykuły z zakresu takich dyscyplin, jak historia nauki, filozofia nauki, socjologia nauki oraz bibliologia i informatologia.
Rysunek 1. Metryki przykładowego artykułu w bazie Scopus
Źródło: Zahedi Zohreh; Costas, Rodrigo; Wouters, Paul (2014). How well developed are altmetrics? A cross-disciplinary analysis of the presence of „alternative metrics” in scientific publications. Scientometrics, vol. 101, issue 2, pp. 1491–1513.
W wyniku przeprowadzonej analizy (stan na dzień 31 marca 2017 r.) ustalono, że 26 artykułów z 40 (65%) posiadało cytowania, a 38 (95%) wyposażonych było w alternatywne metryki. Co interesujące, aż 14 artykułów do tej pory nie cytowanych w literaturze, doczekało się odwołań w Internecie (przede wszystkim w aplikacji Mendeley, na blogach i w serwisie Twitter).
Z grupy 38 artykułów z metrykami alternatywnymi 13 publikacji posiadało metryki pochodzące z dwóch różnych źródeł. Metryki kolejnych 15 artykułów bazowały na 3 lub 4 źródłach. Stosunkowo liczne były także artykuły występujące z metrykami z jednego źródła. Do rzadkości należały natomiast artykuły wyposażone w metryki zaczerpnięte z 5, 6 i 7 źródeł (wykr. 1).
Wykres 1. Liczba źródeł dostarczających alternatywnych metryk dla poszczególnych artykułów z czasopisma Scientometrics
Źródło: oprac. własne.
Najczęstszym źródłem alternatywnych metryk była aplikacja Mendeley (2488 metryk) oraz serwis Twitter (1250 metryk). Dominującą rolę tych dwóch źródeł altmetryk wykazało także wielu innych badaczy (m. in. Robinson-Garcia i in., 2014). Na kolejnych miejscach uplasowały się serwis zakładkowy CiteULike (38) i blogi (31). Znacznie mniej metryk pochodziło z serwisów Facebook (20) i Google+ (10). Najrzadziej wymienianym źródłem wskaźników były strony WWW (2). Szczegółowe dane liczbowe dotyczące pochodzenia metryk z poszczególnych źródeł prezentuje tabela nr 2 (strony 276-279).
Jak wynika z przeprowadzonych analiz, rozkład cytowań oraz metryk z aplikacji Mendeley miał podobny charakter. W obu źródłach najwięcej powołań na publikacje wystąpiło w 2014 r. (cytowania: 192; Mendeley: 1119). Zarówno przed, jak i po tym roku liczba wskaźników była zdecydowanie mniejsza (np. w roku 2016 odnotowano 15 cytowań i 388 opisów w Mendeley). Wskaźniki Twittera wykazały podobną, choć przesuniętą w czasie tendencję – wyraźny wzrost metryk od 2014 r. i spadek po osiągnięciu ich szczytowego poziomu w 2015 r. (578). Dla Twittera spadek liczby metryk nie miał jednak tak gwałtownego przebiegu jak w przypadku Mendeley. W odniesieniu do pozostałych źródeł rozkład metryk przebiegał w miarę równomiernie i utrzymywał się na bardzo niskim poziomie (od 1 do 18 metryk w poszczególnych latach). Obserwując rozkład czasowy metryk, z pominięciem roku 2017 (badanie objęło tylko trzy pierwsze miesiące tego roku), można ostrożnie przypuszczać, że zarówno Mendeley, jak i Twitter będą w najbliższej przyszłości stanowiły dominujące alternatywne źródła „cytowania” analizowanych artykułów.
Wykres 2. Cytowania i wskaźniki altmetryczne w rozkładzie czasowym
Źródło: oprac. własne.
W odniesieniu do menedżera Mendeley oraz serwisu Twitter (a więc dwóch najczęściej wymienianych źródeł altmetryk) zebrany materiał pozwala wnioskować o dodatnich korelacjach zachodzących pomiędzy liczbą cytowań oraz liczbą metryk.
Współczynnik Pearsona*1o wartości 0,85 dla Mendeley dowodzi istnienia silnej korelacji dodatniej (wykr. 3), natomiast o wartości 0,03 dla Twittera – słabej korelacji dodatniej (wykr. 4). Na podstawie analiz można więc zaryzykować stwierdzenie, że w przypadku większości publikacji wraz ze wzrostem liczby cytowań rosła także liczba metryk
*1Współczynnik korelacji linowej Pearsona określa siłę liniowego związku pomiędzy zmiennymi losowymi. Liniowy związek to taki, w którym punkty na wykresie rozproszeniowym dwóch badanych zmiennych układają się mniej więcej na linii prostej. Przyjmuje się, że wartości korelacji od 0 do 0,3 oznaczają słaby związek, od 0,3 do 0,5 – związek umiarkowanie silny, natomiast od 0,5 do 1 – związek silny lub bardzo silny (Por. Korelacje (analiza korelacji), 2007−2016).
w aplikacji Mendeley, chociaż zdarzały się nieliczne odstępstwa od tej tendencji. Z kolei w odniesieniu do cytowań i tweetów nie zachodził już tak oczywisty związek liniowy: w większości przypadków bowiem rosnąca liczba cytowań nie przekładała się na zwiększanie liczby tweetów, wręcz przeciwnie – niekiedy publikacje nie posiadające żadnych lub posiadające niewielką liczbę cytowań w literaturze cieszyły się znacznie większą popularnością w serwisie Twitter (np. artykuł nr 38: liczba cytowań – 0, liczba tweetów – 104). Dodatnich silnych korelacji (o wartości 0,6) między liczbą cytowań (baza Scopus) a liczbą metryk z menedżera Mendeley dla czterech czasopism z zakresu bibliologii i informatologii (Information Processing & Management; Library and Information Science Research; Journal of Documentation; Journal of the American Society for Information Science) dowiedli także Nabeil Maflahi i Mike Thelwall w pracy When are readership counts as useful as citation counts? Scopus versus Mendeley for LIS Journals (Maflahi, Thelwall, 2016, s. 194–197).
Podsumowanie
Przeprowadzone badania (mimo że przeprowadzone na niewielkim zbiorze badawczym) wyraźnie wskazują na dużą użyteczność alternatywnych wskaźników w ocenie społecznego oddziaływania artykułów z zakresu bibliologii i informatologii. Altmetryki mają o wiele większy zasięg oddziaływania i w znacznie szybszym tempie niż cytowania przyczyniają się do popularyzacji i zwiększania widoczności dorobku publikacyjnego. Ponadto mogą determinować przyszłe cytowania (por. Eysenbach, 2011), sprzyjać budowie interdyscyplinarnych i międzynarodowych zespołów badawczych oraz wpływać na podnoszenie społecznej świadomości na temat znaczenia badań naukowych (Barnes, 2015).
Mimo że w przypadku artykułów z zakresu bibliologii i informatologii pomiędzy liczbą cytowań a liczbą alternatywnych metryk zachodzą dodatnie korelacje, warto podkreślić, że jedynie połączenie kilku rodzajów mierników może przynieść dobre rezultaty w zakresie całościowej oceny dorobku naukowego. Altmetryki same w sobie nie stanowią bowiem żadnego antidotum na tradycyjne mierniki oceny, ponieważ – podobnie jak one – zależą od zbyt wielu czynników, choćby takich jak specyfika dyscypliny naukowej, język publikacji, otwartość (open access, DOI) i jakość danych (poprawność metadanych) czy wykorzystywane narzędzia (agregowanie metryk z różnych źródeł) (por. Gumpenberger, Glänzel, Gorraiz, 2016). Bez wątpienia mogą one jednak stanowić komplementarne – względem tradycyjnych wskaźników – źródło oceny wpływu naukowego i stać się elementem składowym postulowanej na łamach literatury meta-analizy dorobku naukowego, uwzględniającej poza obecnością w mediach społecznościowych także inne pola aktywności danego badacza, w tym osiągnięcia naukowe, cytowania, udział w gremiach czy działalność na rzecz środowiska lokalnego itp. (Adie, 2014).
W kontekście zastrzeżeń formułowanych wobec wskaźników altmetrycznych – m.in. takich jak brak standaryzacji (zróżnicowane skale i systemy oceny – np. tweety, polubienia, odsłony, pobrania, rekomendacje itp.), tymczasowość oceny (szybkie reakcje użytkowników, zmiana liczby polubień, komentarzy, tweetów), niemiarodajność (nieobecność badaczy starszego pokolenia w mediach społecznościowych, brak odwołań do publikacji starszych wydanych wyłącznie w wersji tradycyjnej), podatność na manipulację (kółka wzajemnych cytowań i polubień) czy preferencje badaczy do użytkowania konkretnych źródeł metryk*1 − zastąpienie tradycyjnych wskaźników altmetrykami w obszarze biblio
*1Badania dowodzą, że serwis Academia.eu cieszy się dużą popularnością wśród przedstawicieli nauk hu
logii i informatologii nie wydaje się rozwiązaniem racjonalnym. Samo umieszczenie tytułu danej publikacji na blogu czy dodanie strony WWW do zakładek nie może stanowić dowodu pracy z danym tekstem. Co więcej w wielu przypadkach nie ma żadnego związku z promocją nauki jako takiej, a służy raczej autokreacji autora bloga czy wpisu.
Ponieważ zgodnie z prognozami media społecznościowe będą się nadal intensywnie rozwijać (Van der Meulen, Rivera, 2013), zainteresowanie wskaźnikami alternatywnymi będzie rosło. Wydaje się nawet, że w przyszłości mają one szansę stać się elementem oficjalnego (instytucjonalnego) modelu oceny dorobku naukowego. Aby taki scenariusz mógł się zrealizować, konieczne jest jednak wypracowanie pewnych rozwiązań, zwłaszcza w kwestiach otwartości danych i heterogeniczności wskaźników. W pierwszym przypadku należy zadbać o to, by badacze deponowali swoje prace w otwartych repozytoriach i serwisach automatycznie nadających identyfikator obiektu cyfrowego (co obecnie w związku z zamkniętą polityką niektórych wydawców nie zawsze jest możliwe), bowiem – jak już sygnalizowano – wskaźniki altmetryczne są generowane wyłącznie dla publikacji w niego wyposażonych. Po drugie należy rozwiązać problem heterogeniczności wskaźników oraz doprowadzić do ich standaryzacji, co w praktyce oznacza konieczność stworzenia porównywalnych systemów wartościowania wskaźników między sobą (np. 1 tweet = 10 polubień w serwisie Facebook?) lub opracowania swoistych współczynników wpływu dla każdego ze źródeł metryk (np.
t-factor mierzony liczbą tweetów oraz liczbą ich ponownych udostępnień – por. Bornmann, Haunschild, 2016c, p. 15). Tylko czy w tym ostatnim przypadku nie będzie to próba kolejnego tworzenia „nowych wskaźników cytowań”? Może w tym kontekście lepiej zdać się po prostu na bibliotekarzy i tak jak w przypadku bibliometrii powierzyć im rolę swoistych brokerów (pośredników) w ocenie społecznego wpływu nauki – pomagających badaczom w orientacji w zakresie alternatywnych narzędzi i metod promocji dorobku naukowego, udzielających wsparcia w budowie profili online, opracowujących wytyczne do publikacji dorobku pod kątem różnych źródeł elektronicznych, wyjaśniających potencjalne różnice w ocenie dorobku wynikające z uprawnianych dyscyplin naukowych, a wreszcie ułatwiających zrozumienie zawiłości prawa autorskiego czy edukujących w zakresie modeli otwartości?
manistycznych i społecznych, a ResearchGate – wśród reprezentantów nauk biologicznych i ścisłych. Podobne różnice uwidaczniają w użytkowaniu Twittera. Podczas gdy chemicy, fizycy i przedstawiciele nauk medycznych wykorzystują go jako kanał komunikacji naukowej (rozpowszechnianie własnych odkryć i republikowanie treści naukowych udostępnionych przez innych), socjologowie, historycy i ekonomiści traktują go przede wszystkim jako platformę konwersacji (por. Holmberg, Thelwall, 2014; Ortega, 2015).
Bibliografia
1.
Adie, Euan (2014). Taking the alternative mainstream. El Profesional de la Informacion, vol. 23, issue 4, pp. 349–351.
2.
Barnes, Cameron (2015). The use of altmetrics as a tool for measuring research impact. Australian Academic & Research Libraries, vol. 46, issue 2, pp. 121–134.
3.
Barros, Moreno (2015). Altmetrics: alternative metrics of scientific impact based on social media. Perspectivas em Ciencia da Informacao, vol. 20. issue 2, pp. 19–37.
4.
Bornmann, Lutz; Haunschild, Robin (2016a). How to normalize Twitter counts? A first attempt based on journals in the Twitter Index, Scientometrics, vol. 107, issue 3, pp. 1405–1422.
5.
Bornmann, Lutz; Haunschild, Robin (2016b). Normalization of Mendeley reader impact on the reader- and paper-side: A comparison of the mean discipline normalized reader score (MDNRS) with the mean normalized reader score (MNRS) and bare reader counts. Journal of Informetrics, vol. 10, issue 3, pp. 776–788.
6.
Bornmann, Lutz; Haunschild, Robin (2016c). t factor: a metric for measuring impact on Twitter. Malaysian Journal of Library & Information Science, vol. 21, issue 2, pp. 13–20.
7.
Carpenter, Todd A; Lagace, Nettie; Bahnmaier, Sara (2016). Developing standards for emerging forms of assessment: the NISO Altmetrics Initiative. The Serials Librarian, vol. 70, issue 1–4, pp. 85–88.
8.
Erdt, Mojisola; Nagarajan, Aarthy; Sin, Sei-Ching J., Theng, Yin-Leng (2016). Altmetrics: an analysis of the state-of-the-art in measuring research impact on social media. Scientometrics, vol. 109, issue 2, pp. 1117–1166.
9.
Eysenbach, Gunther (2011). Can tweets predict citations? Metrics of social impact based on twitter and correlation with traditional metrics of scientific impact. Journal of Medical Internet Research, vol. 13, issue 4. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3278109/ (odczyt: 31.03.2017).
10.
Fenner, Martin; Linn, Jeniffer (2015). ALM – nowatorskie metryki wskaźników wpływu w publikacjach naukowych. Biblioteka, nr 19, s. 235–246.
11.
Galligan, Finbar; Dyas-Correia, Sharon (2013). Altmetrics: rethinking the way we measure. Serials Review, vol. 39, issue 1, pp. 56–61.
12.
Gumpenberger, Christian; Glänzel, Wolfgang; Gorraiz, Juan (2016). The ecstasy and the agony of the altmetric score. Scientometrics, vol. 108, issue 2, pp. 977–982.
13.
Hoffmann, Christian Pieter; Lutz, Christoph; Meckel, Miriam (2016). A relational altmetric? Network centrality on ResearchGate as an indicator of scientific impact. Journal of Association for Information Science & Technology, vol. 67, issue 4, pp. 765–775.
14.
Holmberg, Kim; Thelwall, Mike (2014). Disciplinary differences in Twitter scholarly communication. Scientometrics, vol. 101, issue 2, pp. 1027–1042.
15.
Jankowska, Elżbieta (2014). Wskaźniki oceny czasopism SJR i SNIP – alternatywa IF. Podkarpackie Studia Biblioteczne, nr 2, s. 48–57.
16.
Jaskowska, Małgorzata (2016). Wpływ wskaźników altmetrycznych na doskonalenie systemu oceny wartości prac naukowych w humanistyce. W: Barbara Sosińska-Kalata, Maria Przastek-Samokowa, Zuza Wiorogórska red. Nauka o informacji w okresie zmian: informatologia i humanistyka cyfrowa. Warszawa: SBP, s. 179–193.
17.
Korelacje (analiza korelacji) (2007–2016). http://pogotowiestatystyczne.pl/slowniczek/korelacje/ (odczyt: 31.03.2017).
18.
Kowalska, Małgorzata (2017). Altmetria jako przedmiot zainteresowania bibliologii i informatologii. Przegląd Biblioteczny (w druku).
19.
Maflahi, Nabeil; Thelwall, Mike (2016). When are readership counts as useful as citation counts? Scopus versus Mendeley for LIS Journals. Journal of the Association for Information Science & Technology, vol. 67, issue 1, pp. 191–199.
20.
Melero, Remedios (2015). Altmetrics – a complement to conventional metrics. Biochemia Medica (Zagreb), vol. 25, issue 2. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4470104/ (odczyt: 31.03.2017).
21.
O’Neill, Jill (2016). NISO recommended practice: outputs of the Alternative Assessment Metrics Project. Collaborative Librarianship, vol. 8, issue 3, pp. 118–123.
22.
Ortega, José Luis (2015). Disciplinary differences in the use of academic social networking sites. Online Information Review, vol. 39, issue 4, pp. 520–536.
23.
Osiński, Zbigniew (2012). Bibliometria metodą analizy i oceny dorobku naukowego historyków najnowszych dziejów Polski. W: Anna Dymmel, Bożena Rejakowa red. Kultura, historia, książka: zbiór studiów, Lublin: UMCS, s. 605–616.
24.
Outputs of the NISO Alternative Assessment Metrics Project. A Recommended Practice of the National Information Standards Organization.
http://www.niso.org/apps/group_public/download.php/17091/NISO RP-25-2016 Outputs of the NISO Alternative Assessment Project.pdf (odczyt: 31.03.2017).
25.
Priem, Jason; Taraborelli, Dario; Groth, Paul; Neylon, Cameron (2010). Altmetrics: a manifesto. http://altmetrics.org/manifesto/ (odczyt: 31.03.2017).
26.
Puckett Rodgers, Emily; Barbrow, Sarah (2014). Wskaźniki altmetryczne i ich rosnące znaczenie w bibliotekach naukowych. Biuletyn EBIB, nr 151. http://open.ebib.pl/ojs/index.php/ebib/article/view/249/445 (odczyt: 31.03.2017).
27.
Racki, Grzegorz; Drabek, Aneta (2013). Cytowania i wskaźnik Hirscha. Gdzie szukać, jak obliczać? Forum Akademickie, nr 2, s. 40–43.
28.
Robinson-García, Nicolás; Torres-Salinas, Daniel; Zahedi, Zohreh; Costas, Rodrigo (2014) New data, new possibilities: exploring the insides of Altmetric.com. El Profesional de la Informacion, vol. 23, issue 4, pp. 359–366.
29.
Rothe, Robin; Schmitz Jasmin (2016). Die mögliche Vielfalt der Impact-Messung: Anbietervergleich von Aggregatoren von Altmetriken. http://zbmedblog.de/?p=383 (odczyt: 31.03.2017).
30.
Rychlik, Małgorzata (2013). Epoka cyfrowa i jej nowe wskaźniki altmetryczne. Biuletyn EBIB, nr 144. http://open.ebib.pl/ojs/index.php/ebib/article/view/121/271 (odczyt: 31.03.2017).
31.
Sadowska-Hinc, Marta (2012). Wskaźniki oceny dorobku publikacyjnego – analiza wybranych przykładów. Biuletyn EBIB, nr 130. http://open.ebib.pl/ojs/index.php/ebib/article/view/506/658 (odczyt: 31.03.2017).
32.
Van der Meulen, Rob; Rivera Janessa (2013). Gartner 2013 Hype Cycle for Social Software Reveals a Wealth of Emerging Innovations. http://www.gartner.com/newsroom/id/2579615 (odczyt: 31.03.2017).
33.
Zahedi, Zohreh; Costas, Rodrigo; Wouters, Paul (2014). How well developed are altmetrics? A cross-disciplinary analysis of the presence of „alternative metrics” in scientific publications. Scientometrics, vol. 101, issue 2, pp. 1491–1513.
Część III
PRZYPADKI I PRZYKŁADY
Wiesław Babik
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Wioletta Jachym
Państwowa Wyższa Szkoła Zawodowa w Tarnowie
Ocena jakości informacji na stronach internetowych z punktu widzenia ekologii informacji
Evaluation of the quality of information published
on the Internet from the viewpoint of information
ecology
Słowa kluczowe: ekologia informacji, jakość informacji, serwis internetowy biblioteki, strona internetowa, zarządzanie informacją.
Keywords: information ecology, information quality, information management, library website, website.
Abstrakt
Przedmiotem opracowania są strony internetowe jako narzędzie zarządzania informacją i jej jakością. Głównym celem opracowania jest prezentacja metodologii oceny informacji zawartych na stronach internetowych w oparciu o teorie i koncepcje ekologii informacji. Celem pośrednim jest przedstawienie wyników badań zrealizowanych zaprojektowaną w tym celu nową metodą zaprezentowaną w tekście. Artykuł napisano na podstawie istniejącej literatury przedmiotu. Zastosowano metodę analizy porównawczej oraz metodologię projektowania. Okazało się, że w polskim piśmiennictwie z zakresu nauki o informacji brakuje publikacji omawiających jakość stron internetowych z punktu widzenia ekologii informacji. Stosowane metody i przeprowadzone badania nie uwzględniały wymagań infoekologicznej oceny jakości informacji prezentowanych na stronach internetowych. Stąd prezentowany artykuł zawiera opis nowej autorskiej metody oceny stron internetowych. Dzięki temu wypełnia istniejącą do tej pory w polskim i zagranicznym piśmiennictwie lukę w metodologii oceny stron internetowych.
Abstract
Websites, the instruments of information management representing specific quality, are the subject matter of this study. The goal is to present the quality of information published on websites, based on the theories and conceptions of information ecology. The direct objective is to present the results of our thematic research conducted with a new method described in this paper. The paper was written with reference to the existing literature on the subject. Methods of comparative analysis and design were applied. It was found that the Polish literature on information science does not contain specific publications on website quality from the viewpoint of information ecology. The methods applied in this study do not take into account the requirements of an info-ecological evaluation of the quality of information presented on websites. Consequently, this paper contains a description of a newly proposed method of evaluating websites. The method fills in the gap in the methodology of website evaluation identified in Polish and foreign literature on the subject.
Wprowadzenie
Przedmiotem opracowania są strony internetowe jako narzędzia zarządzania informacją i jej jakością. Głównym celem opracowania jest prezentacja metodologii oceny informacji zawartych na stronach internetowych w oparciu o koncepcję i teorie ekologii informacji. Celem pośrednim jest przedstawienie wyników badań zrealizowanych nową metodą. Artykuł napisano na podstawie przeglądu literatury przedmiotu i zastosowano metodę analizy porównawczej. Okazało się, że w polskim piśmiennictwie z zakresu nauki o informacji brakuje publikacji traktującej o jakości stron internetowych z punktu widzenia ekologii informacji. Stosowane w tym względzie metody i przeprowadzone badania nie uwzględniły wymagań infoekologicznej oceny jakości informacji umieszczanych na stronach internetowych. Prezentowany artykuł i opis nowej metody oceny stron internetowych wypełnia istniejącą do tej pory lukę w piśmiennictwie i metodologii oceny stron internetowych jako narzędzia zarządzania informacją i jej jakością. Ocena jakości stron internetowych należy do ważnych problemów badawczych informatologii.
Ekologia informacji – nowe spojrzenie na ocenę stron internetowych
Zdając sobie sprawę z wartości informacji we współczesnym świecie i uznając ją za kluczowy zasób informacji dla każdego człowieka, podjęcie się infoekologicznej refleksji nad jej jakością na stronach internetowych w kontekście obecnej sytuacji człowieka funkcjonującego w cywilizacji informacyjno-technologicznej stanowi nie lada wyzwanie (Hetmański, 2015).
Ekologia informacji to nowa domena badawcza o charakterze inter- i transdyscyplinarnym, której przedmiotem są wzajemne oddziaływania człowieka na informacje i odwrotnie, relacje informacyjne między ludźmi w publicznej i prywatnej przestrzeni informacyjnej oraz wpływ na nie środowiska informacyjnego. Jej przedmiotem jest struktura i funkcjonowanie środowiska informacyjnego człowieka (Babik, 2014a).
Podejście infoekologiczne, które przyjęliśmy w artykule za punkt widzenia na problem oceny stron internetowych, to podejście, które bazuje na relacjach współczesnego człowieka z jego środowiskiem informacyjnym, którego istotnym elementem jest Internet. Ekologia informacji akcentuje i bada bowiem wpływ na człowieka środowiskowych czynników informacyjnych, a więc dotyczy relacji między człowiekiem a jego środowiskiem informacyjnym. Ekologiczne spojrzenie w nauce o informacji oznacza więc poszukiwanie w środowisku informacyjnym człowieka tych elementów i związków pomiędzy nimi, które dotyczą oddziaływania informacji na człowieka, człowieka na informacje, a także ochronę człowieka przed niekorzystnym oddziaływaniem informacji oraz ochronę samej informacji przed niszczycielskim działaniem człowieka (Babik, 2014b).
Zakres ekologii informacji określają następujące jej kluczowe zagadnienia: środowisko informacyjne człowieka, ekologiczne zarządzanie informacją, potrzeby informacyjne, bariery informacyjne, zachowania informacyjne, kultura informacyjna, etyka informacyjna, konsumpcja informacji, profilaktyka informacyjna, higiena informacyjna, bezpieczeństwo informacji, polityka informacyjna (Babik, 2014a, s. 110).
Ocena informacji na stronach internetowych jest ważnym problemem. Informacja umieszczana na stronach internetowych powinna charakteryzować się określonymi cechami jakościowymi, aby była użyteczna (relewantna) dla jej potencjalnych odbiorców. Sama jakość wiąże się z ujęciem wartościującym i określa stopień doskonałości podlegający mierzalności. Tak to pojęcie zdefiniował starożytny filozof grecki Platon. Obecnie termin „jakość” jest wieloznaczny, zarówno w ujęciu synchronicznym, jak i diachronicznym. Współcześnie David A. Garvin zaproponował podział definicji jakości na siedem następujących kategorii: ogólne (transcendentne), związane z produkcją, związane z produktem, związane z użytkownikiem, związane z tworzeniem wartości, wielowymiarowe, strategiczne (Garvin, 1984, s. 25). Jakość informacji jest związana z percepcją (wiedzą i doświadczeniem) i potrzebami informacyjnymi odbiorcy (klienta). Jakość powinna być mierzona w odniesieniu do celu jej pozyskiwania.
W ocenie jakości informacji bierze się pod uwagę jej cechy. Różni autorzy podają różne wykazy cech informacji. Do tej pory wyróżniono 23 cechy, zwane też atrybutami informacji (Czerwiński, Krzesaj, 2014, s. 49-51). Ogólnie jakość informacji określa się poprzez następujące atrybuty: relewancję – informacja ma odpowiadać na realne potrzeby i ma mieć istotne znaczenie dla odbiorcy; dokładność – informacja ma być adekwatna do poziomu wiedzy, jaki reprezentuje odbiorca, precyzyjnie określać temat; aktualność – trzeba uwzględniać czas jej powstania; kompletność – informacja powinna zawierać optymalną ilość danych niezbędnych do przetworzenia jej w wiedzę, a poziom szczegółowości jest zależny od potrzeb odbiorcy; spójność – dane powinny być spójne; odpowiednia prezentacja umożliwiająca jej poprawną interpretację, dostępność – jest dostępna dla potencjalnych jej użytkowników; wiarygodność – informacja potwierdza prawdziwość danych i opiera się na rzetelności przekazu, przystawalność – informacja jest interpretowana we właściwym kontekście i funkcjonuje w określonym systemie komunikacji (Jakość informacji, 2016).
Za najważniejsze w ocenie jakości informacji przyjmuje się: prawdziwość, wiarygodność i aktualność informacji. W praktyce, oceniając jakość informacji, porównuje się konkretne fakty z rzeczywistością. Im informacja jest dokładniejsza, tym jej jakość jest wyższa. W procesie informacyjnym zwraca się uwagę szczególnie na trzy zasady dotyczące jakości informacji. Są to zasada selekcji, zasada wiarygodności i zasada aktualności.
Pierwsza zasada opiera się na spostrzeżeniu, że ze względu na nadmiar informacji i ograniczone możliwości mózgu człowieka współczesny człowiek zmuszony jest dokonywać selekcji informacji. Zasada wiarygodności stanowi podstawę ostrożności w wyborze informacji. Natomiast zasada aktualności wymaga uwzględnienia informacji w jej aktualnym stanie.
Jeśli chodzi o metodologię oceny jakości informacji elektronicznych to Bożena Bednarek-Michalska sformułowała trzy metody oceny jakości stron internetowych. Są to:
1. Metoda automatycznych procedur – polegająca na wykorzystaniu narzędzi/programów analizujących mechanicznie strony internetowe (weryfikujących kody źródłowe, język HTML).
2. Metoda statystyczna – polegająca na wnioskowaniu na podstawie analiz liczbowych różnych danych, na przykład liczby linkowań, ruchu użytkowników danej strony, frekwencji wyrazów. Wykorzystuje się tu różne specjalistyczne oprogramowanie oraz analizę zasięgu stron internetowych, liczniki stron.
3. Metoda jakościowo-heurystyczna – polegająca na analizie wybranych (z repertuaru podanych wcześniej) cech formalnych lub treściowych informacji. W tym celu najczęściej przygotowuje się odpowiednie formularze oceny. Metoda ta może być oceną binarną, szacowaniem stopnia spełnienia danego kryterium czy określeniem wag poszczególnych parametrów oceny (Bednarek-Michalska, 2007).
Zasygnalizowane tu metody i sposoby oceny stron internetowych nie uwzględniają w wystarczającym stopniu wielu cech informacji istotnych z punktu widzenia ekologii informacji. Są to m.in. prawdziwość, wiarygodność, aktualność, pertynentność, użyteczność, standaryzacja. Dlatego podjęto się stworzenia nowej metody oceny stron internetowych uwzględniającej wymogi ekologii informacji. Jej prezentacja nastąpi w dalszej części artykułu.
Metoda badań*1
Ocena jakości informacji z perspektywy ekologii informacji opiera się na analizie procesów informacyjnych w obrębie: potrzeb informacyjnych, konstrukcji informacji, form udostępniania, jakości odbioru informacji, zależności zachodzących w środowisku informacyjnym oraz skutków oddziaływania informacji.
Tak określony sposób podejścia nawiązuje do definicji ekologii informacji Alexieja Eryomina, według którego ekologia informacji „jest sumą ocen jakości, zarządzania, produktów i wartości informacji, jak również oceną usług i potrzeb informacyjnych, (…) to dyscyplina wiedzy, której zadaniem jest odkrywanie praw rządzących przepływem informacji w biosystemach, łącznie z człowiekiem, społeczeństwem, ich wpływem na zdrowie psychiczne, fizyczne i społeczne ludzi oraz rozwijanie odpowiednich metodologii mających na celu kształtowanie środowiska informacyjnego” (Eryomin, 1998, s. 252).
Infoekologiczne spojrzenie na jakość serwisów internetowych zostało potraktowane jest jako proces, w którym następują wyraźne relacje pomiędzy jego poszczególnymi etapami i opiera się na:
−
ustaleniu listy infoekologicznych cech i atrybutów jakości stron internetowych,
−
ocenie ich ważności z punktu widzenia użytkownika i jego potrzeb informacyjnych,
*1Rozdział ten jest we fragmentach zmienioną wersją tekstu rozprawy doktorskiej Wioletty Jachym, pt. Ocena jakości stron WWW bibliotek państwowych wyższych szkół zawodowych z perspektywy ekologii informacji, przygotowanej pod kierunkiem prof. dr. hab. Wiesława Babika (UJ) i obronionej 25 października 2016 roku na Wydziale Filologicznym Uniwersytetu Śląskiego w Katowicach.
−
uwzględnieniu stopnia spełnienia oczekiwań i potrzeb informacyjnych w oparciu o analizę zawartości serwisów internetowych, które stanowią przedmiot badań.
Zdefiniowanie infoekologicznych cech serwisów internetowych poprzedza czteroetapowa analiza:
−
koncepcji ekologii informacji, cech informacji, procesów zarządzania informacją, które zostały zdefiniowane przez teoretyków ekologii informacji (rys. 1),
−
dotychczasowych badań przeprowadzonych w zakresie oceny jakości serwisów internetowych (tab. 1),
−
wytycznych zawartych w międzynarodowej normie dotyczącej przygotowania interfejsu strony internetowej ISO 9241-151:2008 Ergonomics of human-system interaction – Part 151: Guidance on World Wide Web user interfaces (tab. 2),
−
modelowego zestawu infoekologicznych cech serwisu i określających je atrybutów (tab. 3).
Rysunek 1. Modelowy zestaw infoekologicznych cech informacji na potrzeby konstrukcji serwisu internetowego
Źródło: oprac. własne.
W niniejszym opracowaniu uwagę skoncentrowano na serwisach internetowych bibliotek, dlatego dalsza część charakterystyki metody badawczej związana jest z tą grupą serwisów. Uzupełniając zestaw cech, przeanalizowano kryteria oceny jakości internetowych serwisów bibliotekarskich, które były stosowane w dotychczasowych badaniach, najważniejsze z nich zostały przedstawione w tabeli 1.
Tabela 1. Kryteria oceny bibliotecznych serwisów internetowych
Autor badań
Kryteria oceny bibliotecznych serwisów internetowych
Helge
Clausen
1. Konstrukcja i struktura serwisu
• Przejrzystość i logiczny układ informacji
• Uzasadnione połączenie tekstu i grafiki
• Zastosowanie elementów multimedialnych (filmy, prezentacje)
2. Jakość informacji zamieszczonych na stronie
• Nazwa biblioteki zamieszczona w widocznym miejscu serwisu
• Adres i dane kontaktowe przedstawione w widocznym
miejscu
• Pełna informacja o usługach biblioteki
• Tekst logiczny i poprawny
• Wyszczególnienie nagłówków strony
• Wiarygodność treści
• Merytoryczna poprawność tekstu
• Poprawność gramatyczna i interpunkcyjna
• Nieaktualność informacji
• Zamieszczanie informacji zbędnych, nadmiarowość informacji
• Powielenia informacji (komunikatów)
3. Nawigacja i linki
• Połączenie z innymi serwisami
• Nadmiar linków
• Brak linków
• Linki kierujące do instytucji nadrzędnych (np. link do serwisu uczelni)
• Informacja o położeniu podczas nawigowania
4. Wrażenia estetyczne
• Poprawność, zasadność i jakość grafiki
• Równowaga pomiędzy użyciem grafiki i tekstu
• Rodzaj grafiki (zdjęcia prezentowanej biblioteki czy pochodzące z innych źródeł)
• Zniekształcenia grafiki
5. Pozostałe rozwiązania
• Dostępność funkcji pomocy
• Rozwiązania dedykowane różnym grupom odbiorców (np. dzieciom, osobom starszym)
6. Ogólna ocena – przyjazność dla użytkownika, oryginalność (Clausen, 1999).
Hungyune Chao
1. Zawartość serwisu
• Katalog biblioteczny
• Opis usług oferowanych przez bibliotekę
• Prezentacja zasobów, kolekcji danych
• Informacja o bibliotece (kontakt, historia)
• Formularze zapytań
2. Prezentacja
• Odpowiednie tło serwisu
• Kolor czcionki
• Format czcionki
• Zastosowane ikony
• Grafika
• Rozmiar i układ tekstu
• Zorganizowana i konsekwentna struktura serwisu
• Aktywne linki
• Przejrzysta strona główna
3. Informacje o instytucji
• Wyczerpujące informacje
o Historia biblioteki
o Sprawozdania z działalności
o Statystyki
o Inne
4. Usługi
• Informacja na temat szkoleń bibliotecznych
• Instrukcje korzystania ze zbiorów biblioteki
• Instrukcje korzystania ze zbiorów pozabibliotecznych
5. Nagłówki i tytuły
• Zwięzłe nagłówki stron
• Tytuł/ nazwa serwisu
6. Nawigacja/możliwości wyszukiwawcze w obrębie serwisu:
• Spisy treści
• Hiperaktywny indeks
• Wyszukiwarka
• Mapa serwisu
• Szybkie przejście do katalogu bibliotecznego
7. Autorska odpowiedzialność
• Informacja na temat webmastera lub autora serwisu
• Informacja na temat autora informacji, komunikatów
8. Kompatybilność
• Jednakowa prezentacja serwisu w różnych przeglądarkach
9. Integracja
• Integracja z instytucją nadrzędną (np. logo uczelni, nazwa)
• Wygodny, prosty adres URL
• Proste adresy mailowe do biblioteki i pracowników (Chao, 2002).
Remigiusz Sapa
1. Przejrzystość (wiem, gdzie jestem i dokąd mogę się udać)
2. Komunikatywność (rozumiem przekaz)
3. Spójność i konsekwencja (układ treści jest przewidywalny)
4. Prewencyjność (np. błąd w nawigowaniu można szybko
naprawić i przenieść się do właściwego miejsca)
5. Narzędzia nawigacji (poruszanie się po serwisie)
6. Sprawność (łatwość i szybkość znalezienia wszystkiego,
maksymalny zysk przy minimalnym nakładzie pracy)
7. Selektywność (wszystko na dany temat w jednym miejscu)
8. Elastyczność (dostosowanie do potrzeb)
9. Aktualność (potwierdzenie aktualności informacji) (Sapa, 2004, s. 33).
Paweł
Gajdek
1. Identyfikacja placówki
2. Aktualizacja informacji
3. Jakość techniczna
4. Estetyka
5. Mapa strony
6. Wyszukiwarka (Gajdek, 2006).
Julia
Špačkova
1. Zawartość strony
2. Kod źródłowy HTML
3. Projekt strony i rozmieszczenie informacji
4. Użyteczność serwisu (Špačkova, 2011).
Źródło: oprac. własne.
Trzeci etap oceny informacji z perspektywy ekologii informacji związany jest z analizą wytycznych zawartych w międzynarodowej normie dotyczącej przygotowania interfejsu strony internetowej ISO 9241-151:2008 Ergonomics of human-system interaction – Part 151: Guidance on World Wide Web user interfaces. W normie tej podano zalecenia i wytyczne projektowania interfejsów użytkownika udostępnianych w sieci World Wide Web. Zalecenia dotyczą następujących aspektów projektowania interfejsów użytkownika: celu aplikacji internetowej, docelowej grupy odbiorców, potrzeb użytkowników, strategii projektowania, projektowania zawartości, nawigacji i wyszukiwania, prezentacji zawartości.
Częścią składową normy jest aneks B służący do przeprowadzenia procedury kontrolnej, zgodności interfejsu z wytycznymi normy. Załącznik ten skonstruowany został w formie listy, składającej się ze 144 atrybutów, zgrupowanych w 5 sekcjach. W tabeli 2 przedstawiono te atrybuty, które mają zastosowanie w ocenie serwisów internetowych bibliotek. Przy atrybutach pozostawiono oryginalne oznaczenia numeryczne przedstawione w normie.
Tabela 2. Kryteria oceny interfejsów internetowych zawarte w normie ISO 9241-151:2008
Sekcja atrybutów
Atrybuty
Strategia projektu (6)
•
Określenie celu serwisu (6.2)
•
Identyfikacja serwisu i jego właściciela (6.11)
•
Spójność projektu strony (6.12)
Zawartość
i funkcjonalność projektu (7)
•
Kompletność zawartości (7.1.4)
•
Wyraźna struktura strony (7.1.5)
•
Dobór odpowiednich mediów i obiektów multimedialnych w stosunku do prezentowanych treści (7.2.3)
•
Dbałość o aktualność treści (7.2.4)
•
Data i czas ostatniej aktualizacji (7.2.5)
•
Możliwość kontaktu z właścicielem serwisu (7.2.6)
•
Możliwość wyrażania opinii o serwisie (7.2.7)
•
Uwzględnianie potrzeb i zadań prowadzonych przez użytkowników – badanie opinii (7.2.9.2)
Nawigacja
i wyszukiwanie (8)
•
Nawigacja „samo opisująca się” (tzn. taka, która jednoznacznie wskazuje użytkownikowi, w jakim się znajduje miejscu, gdzie był i dokąd może pójść) (8.2.1)
•
Wybór właściwej struktury nawigacji (8.3.2)
•
Połączenie różnych sposobów rozmieszczania nawigacji (8.3.7)
•
Bezpośrednie przekierowanie ze strony głównej do najważniejszych treści w serwisie (8.3.9)
•
Zamieszczanie mapy strony (8.4.8)
•
Zamieszczanie linku bezpośrednio kierującego do strony głównej (8.4.11)
•
Możliwość powrotu do wyższego poziomu nawigacji (8.4.12)
•
Zapewnienie funkcji wyszukiwania (8.5.2.1)
Prezentacja treści (9)
•
Nazwa serwisu, właściciel, ostatnia aktualizacja (9.3.1)
•
Spójny układ strony (9.3.2)
•
Umiejscowienie tytułu strony w jednym miejscu w obrębie całego serwisu (9.3.3)
•
Użycie koloru (należy ograniczyć użycie kolorów do 5, utrzymywać odpowiedni kontrast tła i czcionki) (9.3.9)
•
Jednolitość powiązanych podstron (podstawowe elementy strony na każdej z podstron znajdują się w tym samym miejscu) (9.3.13)
•
Identyfikacja każdej strony serwisu – tytuł lub logo (9.3.15)
•
Identyfikacja linków – linki oznaczone innym kolorem niż pozostały tekst (9.4.2)
•
Czytelność tekstu (9.6.1)
•
Wsparcie dla możliwości szybkiego skanowania tekstu poprzez nagłówki, słowa kluczowe, wypunktowania, krótkie frazy i zdania (9.6.2)
•
Gramatyczna i interpunkcyjna poprawność tekstu (9.6.4)
•
Możliwość zmiany rozmiaru czcionki (9.6.6)
Ogólne aspekty projektowe (10)
•
Projektowanie z uwzględnieniem wielokulturowości i wielojęzyczności użytkowników (10.1)
•
Identyfikacja wielojęzyczności serwisu (10.1.3)
•
Czas wczytywania serwisu (10.5)
Źródło: oprac. własne.
Przeprowadzona analiza pozwoliła wyodrębnić sześć infoekologicznych cech serwisów internetowych (rys. 1). Cechy te są zbiorem atrybutów charakteryzujących ich właściwości. Atrybuty zostały wyodrębnione na podstawie analizy badań jakości serwisów internetowych bibliotek oraz atrybutów oceny interfejsu WWW, zawartych w normie ISO 9241-151:2008 Ergonomics of human-system interaction – Part 151: Guidance on World Wide Web user interfaces. Atrybuty zaszeregowano według przynależności do infoekologicznych cech pozwalających ocenić serwis internetowy biblioteki z perspektywy ekologii informacji.
Tabela 3. Modelowy zestaw infoekologicznych cech serwisu i określających je
atrybutów
Cecha
Atrybuty określające cechę
Cecha 1. Wiarygodność (weryfikowalność/autorstwo) informacji/serwisu
1.1 Informacja na temat twórcy serwisu
• Informacja dotycząca twórcy serwisu zamieszczana jest w kodzie źródłowym strony lub w stopce serwisu. Najczęściej jest to nazwa lub logo firmy, która przygotowała serwis.
1.2 Informacja na temat autora wpisów (treści serwisu)
• Wskazanie autora zamieszczanych treści.
1.3 Nazwa serwisu
• Nazwa serwisu, traktowana jako tytuł strony głównej, zamieszczana jest w kodzie źródłowym serwisu lub wyraźnie akcentowana w nagłówku serwisu. Nazwa serwisu stanowi część struktury każdej z podstron w ramach całego serwisu. Ułatwia bezpośrednią identyfikację źródła zwłaszcza, jeżeli użytkownik korzystając z wyszukiwarki, wybiera jedną z podstron serwisu.
1.4 Możliwość wyrażania opinii o serwisie
• Wyrażanie opinii o serwisie realizowane jest poprzez możliwość brania udziału w sondażach oceniających funkcjonalność serwisu lub poprzez korzystanie z przeznaczonego do tego formularza.
Cecha 2. Aktualność informacji
2.1 Wyszczególniony dział Aktualności
• Zamieszczanie w strukturze serwisu działu „Aktualności/ Ogłoszenia”, gdzie użytkownicy serwisu informowani są o bieżących wydarzenia w bibliotece.
2.2 Data ostatniej aktualizacji treści w serwisie
• Zamieszczanie daty ostatniej aktualizacji serwisu, wówczas gdy dodawane są nowe wpisy lub ogłoszenia w serwisie biblioteki, lub gdy treść informacji ulega modyfikacji.
2.3 Możliwość skorzystania z newslettera i tym samym otrzymywania wiadomości o nowych wydarzeniach mających miejsce w bibliotece
• Zamieszczanie funkcji newslettera w obrębie serwisu biblioteki.
2.4 Aktywne linki kierujące do zewnętrznych stron
• Aktywność i poprawność działania linków odsyłających użytkownika do zewnętrznych stron internetowych.
Cecha 3. Pertynentność wyrażona kompletnością informacji w stosunku do potrzeb informacyjnych
3.1 Katalog biblioteczny
• Możliwość bezpośredniego połączenia się z katalogiem bibliotecznym z głównej strony serwisu.
3.2 Opis usług oferowanych przez bibliotekę
• Opis usług, jakie oferuje biblioteka dla swoich użytkowników. Informacja na temat możliwości korzystania z zasobów biblioteki i innych form dostępu do informacji za pośrednictwem biblioteki.
3.3 Prezentacja baz danych, do których czytelnicy mają dostęp za pośrednictwem biblioteki lub w wolnym dostępie
• Informacja na temat dostępu do baz danych, z których można skorzystać za pośrednictwem biblioteki, oraz zasad dostępu.
3.4 Prezentacja materiałów szkoleniowych dotyczących zasad korzystania ze zbiorów i usług biblioteki, np. prezentacje multimedialne, filmy, szkolenia on-line
• Udostępnianie w różnej formie materiałów informacyjno-szkoleniowych na temat warunków korzystania z zasobów i usług oferowanych przez bibliotekę.
3.5 Regulamin korzystania z usług biblioteki
• Zamieszczanie w obrębie serwisu pełnego tekstu regulaminu określającego zasady korzystania z biblioteki.
3.6 Historia biblioteki
• Zamieszczanie w obrębie serwisu informacji dotyczących historii funkcjonowania biblioteki.
3.7 Sprawozdania i statystyki z działalności biblioteki
• Zamieszczanie w obrębie serwisu sprawozdań z corocznej działalności biblioteki i innych statystyk.
3.8 Misja biblioteki
• Zamieszczanie w obrębie serwisu tekstu precyzującego misję biblioteki, jej rolę i cel działalności.
3.9 Adres biblioteki
• Zamieszczanie adresu biblioteki oraz jej lokalizacji.
3.10 Godziny otwarcia biblioteki
• Zamieszczanie informacji o godzinach otwarcia biblioteki oraz jej poszczególnych działów (agend).
3.11 Wykaz osób pracujących w bibliotece
• Zamieszczanie wykazu osób pracujących w poszczególnych działach biblioteki i odpowiedzialnych za określony zakres usług.
3.12 Kontakt telefoniczny do poszczególnych agend (działów) biblioteki, np. wypożyczalni, czytelni czasopism
• Zamieszczanie wykazu numerów telefonów do wszystkich działów w bibliotece.
3.13 Kontakt telefoniczny do poszczególnych pracowników biblioteki
• Zamieszczanie wykazu numerów telefonów do poszczególnych pracowników pracujących w obrębie każdego działu w bibliotece.
3.14 Adres mailowy biblioteki
• Zamieszczanie ogólnego adresu mailowego biblioteki.
3.15 Adresy mailowe poszczególnych pracowników biblioteki
• Zamieszczanie adresów mailowych wszystkich pracowników biblioteki.
3.16 Galeria zdjęć z biblioteki i wydarzeń organizowanych przez bibliotekę
• Zamieszczanie i aktualizacja galerii w obrębie serwisu, gdzie w formie zdjęć prezentowane są wydarzenia organizowane przez bibliotekę.
Cecha 4. Użyteczność i funkcjonalność serwisu
4.1 Przejrzysta strona główna kierująca do najważniejszych treści serwisu
• Wyznaczanie struktury serwisu zbudowanego w oparciu o menu nawigacyjne kierujące do najważniejszych treści serwisu.
• Eliminacja powtórzeń informacji.
• Brak nadmiaru informacji powodującego chaos informacyjny, zwłaszcza w obrębie strony głównej – startowej, która w czytelny sposób powinna zawierać najważniejsze informacje z punktu widzenia jej użytkownika i przekierowywać go do pozostałych, szczegółowych podstron w obrębie serwisu.
4.2 Logiczny podział odnośników w menu
• Jednoznaczne nazewnictwo odnośników w menu nawigacyjnym.
4.3 Opisane nagłówki podstron wskazujące na miejsce w serwisie
• Zamieszczanie nazw nagłówków (tytułów) podstron, które wskazują na miejsce nawigowania w obrębie serwisu.
4.4 Bezpośrednie przekierowanie ze strony głównej do katalogu biblioteki
• Zamieszczanie odnośnika internetowego katalogu bibliotecznego OPAC.
4.5 Możliwość powrotu do wyższego poziomu nawigacji
• Zamieszczanie ścieżki nawigacji umożliwiającej powrót do wyższego poziomu nawigacji, np. Strona główna \ Informator \ Czytelnia główna.
4.6 Możliwość powrotu do strony głównej serwisu z każdego miejsca w obrębie serwisu
• Zamieszczanie podlinkowanego odnośnika pozwalającego na powrót do strony głównej z każdego miejsca w obrębie całego serwisu.
4.7 Wyszukiwarka w obrębie serwisu
• Zamieszczanie w strukturze serwisu wewnętrznej wyszukiwarki.
4.8 Mapa strony
• Zamieszczanie w serwisie dodatkowej funkcji – mapy strony – która ułatwia nawigowanie, zwłaszcza w przypadku rozbudowanych serwisów składających się z wielu podstron.
4.9 Możliwość powiększenia rozmiaru czcionki
• Zamieszczanie w serwisie funkcji pozwalającej na automatyczne powiększenie rozmiaru czcionki.
4.10 Dostępność innych wersji językowych serwisu
• Możliwość skorzystania z innych wersji językowych serwisu.
4.11 Formularze zapytań
• Zamieszczanie w serwisie gotowych formularzy zapytań usprawniających komunikację użytkownika z autorami serwisu lub osobami odpowiedzialnymi za administrowanie oraz uaktualnianie treści, np. zapytanie do bibliotekarza, propozycja zakupu książki do zbiorów biblioteki i in.
4.12 Komunikatory, np. GaduGadu, Skype
• Zamieszczanie dodatkowych funkcji komunikacji internetowej pomiędzy użytkownikami i bibliotekarzami w formie komunikatorów GaduGadu lub Skype.
4.13 Profil biblioteki na portalu społecznościowym
Facebook
• Zamieszczanie w obrębie serwisu informacji/odsyłacza kierującego do profilu biblioteki na portalu społecznościowym Facebook.
Cecha 5. Standaryzacja w wizualizacji informacji
5.1 Identyfikacja każdej z podstron poprzez zamieszczanie nazwy lub logo biblioteki
• Umieszczanie logo firmy (instytucji) w lewym górnym rogu (Golis; Omazda 2011, s. 111).
• Logo to powinno być podlinkowane, aby w ten sposób ułatwić użytkownikowi powrót do głównej strony serwisu.
5.2 Ograniczenie kolorów czcionki
• Liczba zastosowanych kolorów czcionki nie powinna przekroczyć 5 kolorów (ISO 9241-151:2008, s. 28).
5.3 Właściwy kontrast tła i czcionki
• Odpowiedni kontrast pomiędzy tekstem a tłem sprawia, że tekst jest bardziej czytelny. Według organizacji W3C tzw. współczynnik kontrastu (ang. contrast ratio) może być osiągnięty na poziomie AA lub na poziomie AAA. Aby zapewnić zgodność z WCAG 2.0 na poziomie AA, współczynnik kontrastu pomiędzy
tekstem a tłem powinien wynosić przynajmniej 4.5:1 (Młynarczyk, 2015).
• Kontrast tekstu jest możliwy do sprawdzenia narzędziem Color Contrast Checker (2017).
5.4 Dbałość o jednolitość formatu czcionki w obrębie całego serwisu
• Jednolitość zastosowania tych samych krojów czcionek w obrębie całego serwisu świadczy o estetycznej dbałości o produkt.
• Aby uniknąć rozpraszania uwagi czytelników liczbą krojów zastosowanych czcionek, należy tę liczbę ograniczyć, do trzech (Zeldman; Marcotte 2011, s. 296).
5.5 Wyróżnienie treści podlinkowanych
• Zastosowanie wyróżniającej się kolorystyki lub innego rodzaju oznaczeń przeznaczonych do zaakcentowania tekstów podlinkowanych – odsyłaczy zewnętrznych.
5.6 Czytelność tekstu poprzez zastosowanie nagłówków, akapitów, wypunktowania
• Zastosowanie właściwych elementów typografii tekstu zachęcających do czytania treści zamieszczonych w serwisie i usprawniających tę czynność, tj.: powiększonych akapitów, wypunktowań, wyróżnionych cytatów. Elementy te ‹‹prowadzą›› wzrok czytelnika i pomagają w zrozumieniu umieszczonego tekstu, tworząc środowisko na wzór tekstów tradycyjnych, drukowanych (Zeldman; Marcotte 2011, s. 298).
5.7 Gramatyczna i interpunkcyjna poprawność tekstu
• Poprawność gramatyczna i interpunkcyjna testów zamieszczanych w serwisie.
5.8 Poprawność i jakość zastosowanej grafiki (zdjęć)
• Zamieszczanie w obrębie serwisu zdjęć, które nie ulegają zniekształceniom, są wyraźne i nawiązują do tematyki serwisu.
5.9 Równowaga pomiędzy użyciem grafiki i tekstu
• Umieszczanie w treści serwisu zarówno elementów tekstowych jak i graficznych. Dbałość o równowagę pomiędzy ich użyciem.
5.10 Integracja serwisu biblioteki z instytucją nadrzędną – uczelnią, np. poprzez zamieszczanie logo uczelni, przekierowanie do strony głównej uczelni
• Zamieszczanie w obrębie serwisu „łącznika” z instytucją nadrzędną biblioteki, czyli z uczelnią, w strukturze której prowadzi swoją działalność biblioteka. Połączenie z uczelnią może być zaakcentowane umieszczeniem logo uczelni, nazwy lub tekstu odsyłającego do serwisu uczelni.
5.11 Wygodny i prosty adres internetowy URL
• Zastosowanie prostego, łatwego do zapamiętania adresu internetowego biblioteki.
• Ujednolicony format adresowania zasobów URL (ang. Uniform Resource Locator) może być prosty lub rozbudowany. Prosty adres URL składa się z takich elementów, jak: rodzaj protokołu sieciowego, nazwa hosta (komputera serwującego usługę WWW), domena, np. http://biblioteka.pwsztar.edu.pl/.
• W analizie adresu URL przyjęto, że proste adresy internetowe to te, które nie wymagają zastosowania znaku „/” – ukośnik, prawy ukośnik (z ang.: slash lub forward slash) w celu określenia adresu URL biblioteki. Jeżeli adres zawierał ten element, np. http://www.pwste.edu.pl/uczelnia/biblioteka, wówczas adres uznano za złożony.
5.12 Proste adresy mailowe pracowników biblioteki
• Zastosowanie jednolitych, służbowych adresów mailowych pracowników biblioteki, nawiązujących do nazwy uczelni.
Cecha 6. Techniczna jakość informacji
6.1 Czas wczytywania się serwisu w przeglądarce internetowej
• Analizę czasu wczytywania się serwisu w przeglądarce internetowej Mozilla Firefox zweryfikowano za pomocą narzędzia Page Speed Insights. Wynik PageSpeed mieści się w zakresie od 0 do 100 punktów. Wynik na poziomie co najmniej 85 punktów oznacza, że strona działa dobrze (O narzędziu, 2014).
6.2 Dostosowanie serwisu do różnych przeglądarek interneto wych
• Dostosowanie serwisu do przeglądarek internetowych oznacza możliwość przeglądania serwisu w różnych przeglądarkach bez wystąpienia zakłóceń w formie zniekształceń struktury serwisu, zastosowanej szaty graficznej, kolorystyki lub formatów czcionek.
• W przeprowadzonym badaniu uwzględniono jakość odczytu poszczególnych serwisów w trzech przeglądarkach internetowych: Internet Explorer, Google Chrome, Mozilla Firefox.
Źródło: oprac. własne.
Materiał badawczy i przebieg badań
Badaniom poddano 36 serwisów internetowych bibliotek uczelnianych państwowych wyższych szkół zawodowych w Polsce oraz 6 serwisów bibliotek zagranicznych o zbliżonym profilu kształcenia. Były one dwuetapowe.
Badania ankietowe
Audytu atrybutów charakteryzujących sześć infoekologicznych cech informacji (serwisu internetowego) dokonano za pomocą badań ankietowych. Przedstawiciele zbiorowości próbnej (320 osób) wzięli udział w badaniach, których celem było uzyskanie opinii, w jakim stopniu poszczególne infoekologiczne atrybuty uwzględnione w tabeli nr 3 i przedstawione respondentom w ankiecie są ważne z punktu widzenia użytkownika serwisu internetowego biblioteki.
W ten sposób uzyskano ranking wszystkich atrybutów ujętych w obrębie sześciu infoekologicznych cech serwisów internetowych bibliotek. O kolejności atrybutów zdecydowały liczby udzielonych odpowiedzi w 4-stopniowej skali oceny. Ranking ten został zaprezentowany na wykresach 1 i 2.
Wykres 1. Ranking atrybutów – część pierwsza
Źródło: oprac. własne.
Wykres 2. Ranking atrybutów – część druga
Źródło: oprac. własne.
Analiza ekspercka
W dalszym etapie poszczególnym atrybutom przyporządkowano odpowiednie wagi ważności. Atrybut znajdujący się na pierwszym miejscu listy rankingowej otrzymał wagę 51 punktów. Kolejne atrybuty, zgodnie z zajmowanym miejscem, otrzymały wagi pomniejszone o jeden punkt w stosunku do wyżej uplasowanego atrybutu. W ten sposób powstała lista pięćdziesięciu jeden atrybutów, którym przyznano punkty w zakresie od 1 do 51.
Ostatnim etapem badań była weryfikacja, czy poszczególne atrybuty zostały zrealizowane w internetowych serwisach bibliotek. Jeżeli atrybut został zrealizowany, wówczas serwis otrzymał ustaloną dla danego atrybutu liczbę punktów. Jeżeli nie stwierdzono realizacji atrybutu, wówczas przydzielono zero punktów. Całkowita, możliwa do zdobycia liczba punktów wynosiła 1326 punktów. Liczba ta była sumą wszystkich wag przypisanych poszczególnym atrybutom. Wyniki badań pozwoliły określić, które z badanych serwisów można zakwalifikować do grupy serwisów spełniających cechy infoekologiczne, tj. uznać za infoekologiczne. W tym celu wyznaczono średnią arytmetyczną uzyskanych wyników oceny dla polskich (S1) i zagranicznych (S2) serwisów internetowych bibliotek. Następnie obliczono, jakim procentem wszystkich możliwych do uzyskania punktów (1326) jest przedstawiona średnia arytmetyczna. Wartość ta obliczona została według poniższego wzoru:
gdzie:
P – procent wszystkich możliwych do uzyskania punktów w trakcie oceny serwisu na podstawie średniej arytmetycznej uzyskanych wyników;
L – liczba wszystkich możliwych do uzyskania punktów w trakcie oceny serwisu (1326);
S – średnia arytmetyczna uzyskanych wyników;
S1 – średnia arytmetyczna uzyskanych wyników dla polskich serwisów internetowych bibliotek (932);
S2 – średnia arytmetyczna uzyskanych wyników dla zagranicznych serwisów internetowych bibliotek (935).
Infoekologiczny serwis biblioteki to taki, który realizuje potrzeby informacyjne jego użytkowników z uwzględnieniem infoekologicznych cech informacji. Na podstawie zaprezentowanych obliczeń przyjęto, że określenie to jest adekwatne w sytuacji, gdy serwis zaspokaja przynajmniej 70% infoekologicznych potrzeb informacyjnych jego użytkowników, czyli w trakcie oceny serwisu internetowego biblioteki przekroczony został próg 70% wszystkich możliwych do uzyskania punktów infoekologicznej oceny jakości serwisu.
Wyniki badań
Badania przeprowadzone w oparciu o zaprezentowaną metodę badawczą pozwoliły na wykazanie liczby infoekologicznych serwisów internetowych bibliotek będących przedmiotem analizy. W przypadku serwisów polskich do grypy tej zakwalifikowano łącznie 19 serwisów spełniających kryteria oceny. Pozostałe serwisy podczas oceny nie osiągnęły zadowalającego wyniku i nie przekroczyły progu 70% realizacji cech infoekologicznych. W przypadku serwisów zagranicznych do grupy serwisów ocenionych pozytywnie przyporządkowano 4 serwisy, pozostałe znalazły się poza przyjętymi kryteriami. W zbiorczym zestawieniu wyników lepsze rezultaty uzyskały serwisy polskie (tab. 4).
Tabela 4. Wyniki realizacji infoekologicznych cech w serwisach bibliotek polskich
i zagranicznych
Poziom realizacji infoekologicznych cech
serwisu internetowego
Nr
Nazwa infoekologicznej cechy serwisu internetowego (kolejność zgodna z wynikami ankiety)
Serwisy bibliotek
polskich
Serwisy bibliotek
zagranicznych
Liczba realizacji
Wartość procentowa w stosunku do liczby całkowitej
Liczba realizacji
Wartość procentowa w stosunku do liczby całkowitej
1.
Pertynentność wyrażona kompletnością w stosunku do potrzeb informacyjnych
32/36
89%
5/6
84%
2.
Użyteczność i funkcjonalność serwisu
28/36
78%
3/6
50%
3.
Standaryzacja w wizualizacji informacji
34/36
95%
6/6
100%
4.
Techniczna jakość informacji
5/36
14%
2/6
34%
5.
Wiarygodność (weryfikowalność/autorstwo) informacji/serwisu
7/36
20%
0/6
0%
6.
Aktualność informacji
24/36
67%
3/6
50%
Źródło: oprac. własne.
Podsumowanie
Opracowanie metodologii infoekologicznych badań stron WWW poszerza spektrum dotychczasowych metod oceny serwisów internetowych. Zaprezentowana metoda może być wykorzystana w badaniach innych grup stron WWW oraz stanowi przyczynek do badań naukowych w tym zakresie. Perspektywa oceny informacji z punktu widzenia ekologii informacji w sposób priorytetowy traktuje potrzeby informacyjne użytkowników informacji, przestrzeganie standardów technicznych, zasad funkcjonalności i użyteczności a nade wszystko zwraca uwagę na odpowiedzialność za informacje.
Stosując przedstawioną procedurę badawczą do oceny innych typów stron internetowych, konieczna jest modyfikacja części składowych metodologii. Etap określenia infoekologicznych cech jest etapem uniwersalnym, zmianie zaś ulega przyporządkowanie poszczególnych atrybutów charakteryzujących daną cechę w zależności od typu analizowanych serwisów. Weryfikację potrzeb informacyjnych przeprowadza się w grupie osób, które są najczęstszymi użytkownikami tego rodzaju serwisów. Kontrola spełnienia oczekiwań użytkowników serwisów oraz analiza ekspercka pozostaje bez zmian i przebiega w analogiczny sposób.
Bibliografia
1.
Babik, Wiesław (2001). Ekologia informacji. Zagadnienia Informacji Naukowej, nr 2 (78), s. 64-70.
2.
Babik, Wiesław (2014a). Ekologia informacji. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
3.
Babik, Wiesław (2014b). Refleksja ekologiczna w nauce o informacji. W: Barbara Sosińska-Kalata red. przy udziale Marii Przastek-Samokowej i Zuzanny Wiorogórskiej. Nauka o informacji w okresie zmian. Koncepcja, metody, badania, praktyki. Warszawa: Wydawnictwo SBP, s. 65-78.
4.
Bednarek-Michalska, Bożena (2007). Ocena jakości informacji elektronicznej. Pułapki sieci. Biuletyn EBIB, nr 5(86). http://www.ebib.pl/2007/86/a.php?bednarek (odczyt: 5.05.2017).
5.
Chao, Hungyune (2002). Assessing the quality of academic libraries on the Web: The development and testing of criteria. Library & Information Science Research, vol. 24, issue 2, pp. 169-194.
6.
Clausen, Helge (1999). Evaluation of library Web sites: the Danish case. The Electronic Library, vol. 17, issue 2, pp. 83-87.
7.
Czerwiński, Adam; Krzesaj, Marcin (2014). Wybrane zagadnienia oceny jakości system informacyjnego w sieci WWW. Opole: Wydawnictwo Uniwersytetu Opolskiego.
8.
Davenport, Thomas; Prusak, Laurence (1997). Information ecology: mastering the information and knowledge environment. New York, Oxford University Press.
9.
Eryomin, Alexei L. (1998). Information ecology – a viewpoint. International Journal of Environmental Studies, sections A&B, issue 3/4, pp. 241-253.
10.
Gajdek, Paweł (2006). Analiza jakości i użyteczności informacji wybranych zasobów WWW małopolskich bibliotek. Annales Universitatis Paedagogicae Cracoviensis Studia ad Bibliothecarum Scientiam Pertinentia, z. 4, s. 167-176.
11.
Garvin, David A. (1984). What does ‘product quality’ really mean? Sloan Management Review, Fall, pp. 25-43.
12.
Golis, Edmund; Omazda, Artur (2011). Metody badania ergonomii interfejsów stron internetowych. Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Edukacja Techniczna i Informatyczna, z. 6, s. 109-115.
13.
O narzędziu PageSpeed Insights (2014).
https://developers.google.com/speed/docs/insights/about (odczyt: 13.04.2017).
14.
Hetmański, Marek (2015). Świat informacji. Warszawa: Difin SA.
15.
Horton, Forest W. (1978). Information ecology. Journal of Systems Management, vol. 29, issue 9, pp. 32-36.
16.
ISO 9241-151:2008 Ergonomics of human-system interaction – Part 151: Guidance on World Wide Web user interfaces.
17.
Jakość informacji (2016). W: Encyklopedia zarządzania. https://mfiles.pl/pl/index.php/Jako%C5%9B%C4%87_informacji (odczyt: 27.06.2017).
18.
Młynarczyk, Małgorzata (2015). Internet bez barier. http://internet-bez-barier.com/kontrast/ (odczyt:13.04.2017).
19.
Sapa, Remigiusz (2004). W poszukiwaniu kryteriów oceny serwisów WWW bibliotek akademickich. Praktyka i Teoria Informacji Naukowej i Technicznej, t. 12, nr 3-4, s. 28-39.
20.
Špačková, Julia (2011). Informačná ekológia použitel’nosti. W: Jela Steinerová red. Informačná ekológia a knižnice. Zbornik z medzinarodnej konferencje organizovanej pri priležitosti oslav 90. vyročia založenia Filozofickej fakulty Univerzity Komenskeho v Bratislave Bratislava, Univerzitna knižnica v Bratislave, 10-12. oktobra 2011, Bratislava. Bratislave: Univerzita Komenskeho, s. 221-228.
21.
Color Contrast Checker (2017). WebAIM. http://webaim.org/resources/contrast checker/ (odczyt: 13.04.2017).
22.
Zeldman, Jeffrey; Marcotte, Ethan (2011). Projektowanie serwisów WWW. Standardy sieciowe. Gliwice: Wydawnictwo Difin.
Małgorzata Janiak
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Wizualizacja jako metoda przedstawiania
wyników diagnozy systemu informacyjnego:
case study polskich informatologów w XXI wieku
Visualization as a method of presenting the results of the information systems diagnosis: a case study of Polish information scientists in the 21st century
Słowa kluczowe: diagnoza systemu informacyjnego, piśmiennictwo informatologiczne XXI w.,
wizualizacja wyników badań.
Keywords: information systems diagnosis, Polish information science literature 2000–2015, visualization of research results.
Abstrakt
Celem artykułu jest zreferowanie możliwości wykorzystywania różnorodnych elementów wizualizacyjnych dla przedstawiania systemów informacyjnych oraz omówienie wyników analiz dotyczących zastosowań obrazowania systemów przez informatologów, autorów artykułów opublikowanych w Zagadnieniach Informacji Naukowej oraz Praktyce i Teorii Informacji Naukowej i Technicznej w latach 2000–2015. Podrzędnym, pośrednim celem badań było określenie tematyki prac omawiających systemy informacyjne, aby ustalić, jakie treści oraz elementy systemów są wizualizowane. Tematyka artykułów została przedstawiona także dzięki wizualizacji danych. Przeprowadzono analizę piśmiennictwa naukowego w celu określenia podstawowych grup zagadnień, jakimi zajmowali się autorzy publikujący w Ptincie i ZIN–ie. Wykorzystano do tego analizy bibliometryczne oraz przygotowano wizualizacje danych. Zaprezentowano także model zastosowań wizualizacji do opracowań o systemach informacyjnych. Posługując się metodami statystycznymi, przeprowadzono rozbiór zastosowanych elementów wizualizacyjnych z artykułów z PTINT–u i ZIN–u. Ustalono, że informatolodzy wykorzystywali wizualizacje do prezentowania różnorodnych systemów, PTINT i ZIN różnią się między sobą, jeśli chodzi o tematykę artykułów, a także, że wizualizacja może być zastosowana jako technika analizy systemów informacyjnych.
Abstract
The aim of this article is to present the possibility of using various visualization elements for the presentation of information systems and to discuss the results of the analyses of the systems prepared by information scientists – the authors of articles published in
Zagadnienia Informacji Naukowej and Praktyka i Teoria Informacji Naukowej i
Technicznej in 2000–2015. The following methods were used: content analysis, statistical analysis, bibliometric analysis and visualization. An analysis of the scientific texts was conducted in order to establish the basic groups of issues discussed by the authors of PTINT and ZIN. What also was presented was a model of the ways visualizations can be used while working with the information systems. With the use of the statistical
methods, an analysis of the visualization elements from the articles of PTINT and ZIN was
conducted. The following conclusions were reached: information professionals used
visualizations to present various systems, PTINT and ZIN are different when it comes to the issues they discuss, visualization can be used as a technique for information systems analysis.
Wstęp
Wizualizacja przedstawiana jest często jako metoda badań lub działalność praktyczna. W artykule została również omówiona jako technika prezentacji wyników analiz różnorodnych danych oraz samych struktur i procesów toczących się w systemach informacyjnych oraz w jego otoczeniu. Przedstawiono także bibliometryczną analizę zastosowanych wizualizacji oraz przeanalizowano zagadnienia, jakimi zajmowali się polscy badacze systemów informacyjnych z zakresu informatologii w XXI wieku, którzy opublikowali swoje prace w dwóch polskich czasopismach z tego zakresu: Zagadnieniach Informacji Naukowej oraz Praktyce i Teorii Informacji Naukowej i Technicznej. Sama analiza zawiera także wiele elementów wizualizacyjnych.
Wizualizacja, systemy informacyjne
Termin „wizualizacja” jest obecnie często używany, zarówno w odniesieniu do obrazowania informacji, jako „wyobrażania sobie czegoś”„ w celu „wywołania pożądanych przez siebie zmian bądź uwolnienia się z przeżyć z przeszłości” (Wizualizacja „a”). Można więc mówić o sposobie przedstawiania danych, lepszego zapoznawania się ludzi z rzeczywistością, procesem rozumienia i podejmowania decyzji, jak i o metodzie psychologicznej, którą stosuje się głównie w terapiach. W artykule odnosić się będziemy wyłącznie do pierwszego rozumienia pojęcia, które doczekało się różnorodnych definicji. I tak w Słowniku języka polskiego PWN opisano wizualizację jako „przedstawienie czegoś za pomocą obrazu” (Wizualizacja „b”). Internetowa sieć wyrazów Słowosieć – polski Wordnet – przedkłada domenę pojęcia: „związane z myśleniem”, a jako hiperonim wskazuje „zapoznanie”, czyli „przedstawienie kogoś lub czegoś, zaznajomienie z kimś lub czymś” (Wizualizacja „c”). W połączeniu z procesami tworzenia różnorodnych prac przy użyciu komputera omawia się wizualizację jako graficzne metody tworzenia, analizy i przekazywania informacji, metodę obliczeń (computing) przekładającą symboliczne w geometryczne oraz sposób zobaczenia niewidzialnego (Visualization in scientific, 1987). Treścią danych mogą być zarówno idee abstrakcyjne, różnorodne pomysły, rzeczywiście istniejące dane czy już przetworzone informacje, wyniki analiz. Formy danych to elementy wizualne (o czym za chwilę), ale też, jeśli to konieczne, także teksty. Obecnie bardzo wiele infografik, zwłaszcza tych spotykanych w sieci, integruje słowa i obrazy, tworząc nowy, bardziej płynny i dynamiczny kanał komunikacyjny (zob. np. Osińska 2010, Osińska 2016).
Celem tworzenia infografik (graficznych informacji, wyniku działań wizualizacyjnych) jest chęć wyjaśniania, niesienia pomocy w rozumieniu rzeczywistości oraz wsparcia dla szybszej, bardziej spójnej, powszechnie zrozumiałej komunikacji (niewymagającej od odbiorcy perfekcyjnej znajomości języków obcych). Kolejnym celem jest chęć odkrycia i ujawniania informacji, które były wcześniej ukryte lub nieoczywiste, chociażby ze względu na swoją liczebność, dynamikę zmian czy rozproszenie i nieuporządkowanie (zob.: Grave, Velasco 2007).
David McCandless, twórca wielu infografik, autor portalu Information is beautiful oraz książek Information is beautiful (2009a; 2012) i Knowledge is beautiful (2014) przedstawił najważniejsze cechy dobrej wizualizacji: informacje muszą być interesujące (znaczące i istotne) oraz integralne (dokładne, spójne), a także projekt musi posiadać formę (piękną, o wyznaczonej strukturze) i funkcjonalność (musi działać i być łatwy w obsłudze) (McCandless, 2009b).
W nauce wizualizacja wpływa na stosowane metody badawcze, sposób prowadzenia badań, a zwłaszcza prezentowania wyników, nie tylko w formie bardziej atrakcyjnej estetycznie, ale również pozwalającej lepiej zrozumieć prezentowaną wiedzę. „Skuteczna wizualizacja jest czymś więcej niż jej powierzchowne piękno” (What is visualization?). Wykorzystywane w nauce i poza nią infografiki pozwalają na szybsze i łatwiejsze dotarcie do odbiorcy, wpływają na jego poziom rozumienia rzeczywistości, pozwalają płynniej kształtować proces zarządzania, w tym także zarządzania systemami informacji.
Typy elementów wizualizacyjnych stosowane przez badaczy to często: wykresy, tabele, zdjęcia i rysunki, a więc ogólnie przyjęte w publikacjach naukowych wizualizacje dwuwymiarowe. W odniesieniu do prezentowanych danych mogą to być elementy bazujące przede wszystkim na:
−
danych statystycznych (prezentowanych zwłaszcza w formie tabel i wykresów),
−
przedstawianiu czasu i zmian w czasie (wykresy, rysunki, infografiki),
−
procesach (np. diagramy Gantta, sieć PERT),
−
geografii i lokalizacji (za: Infografika to obraz, 2011–2017).
Studio NeoMam z Manchesteru na swoich stronach internetowych (http://neomam.com/) zaproponowało inny podział infografik (nierozłączny, o różnorodnych kryteriach, lecz interesujący):
−
wizualizację artykułu (visualised article),
−
schemat decyzyjny (flow chart),
−
prezentację czasu (the timeline),
−
użyteczną „przynętę” (haczyk – useful bait) – wyjaśniającą zjawiska lub odpowiadającą na pytanie, jak coś zrobić,
−
wizualizację przeciwstawnych danych (versus infographic) – wykorzystywaną do porównania kontrastowych opcji,
−
„zalew” liczb (number porn – dane statystyczne),
−
zdjęcia (photo infographic),
−
dane wizualne (data vis – z hasłem Info is beautiful) – kreatywnych, estetycznych, unikatowych i interesujących elementów graficznych.
Powyżej zaprezentowane typologie zastosować można do analizy wykorzystanych przez informatologów elementów wizualizacyjnych.
Natomiast drugi termin: „system informacyjny” czy też „system informacyjno–wyszukiwawczy (SIW)” (tutaj terminy te używane są wymiennie), zgodnie z ogólnie przyjmowaną definicją ze Słownika encyklopedycznego informacji, języków i systemów informacyjno–wyszukiwawczych (System informacyjno–wyszukiwawczy, 2002, s. 261) przetwarza informację wejściową w ustrukturalizowany zbiór wyszukiwawczy. Podstawą jego budowy są więc dane, struktura (czasem skomplikowana, o wielu poziomach), mechanizmy przetwarzania, wyszukiwania i prezentowania informacji. Do tego dochodzą jeszcze osoby zaangażowane w jego tworzenie oraz wykorzystywanie, a więc cała społeczność skupiona wokół systemu. Tak szeroko rozumiany termin stanowił podstawę wyboru artykułów omówionych w następnej części pracy.
Na początek omówiono i zwizualizowano tematykę artykułów, także poprzez przygotowane chmury tagów, dla zaprezentowania, jak obrazowanie przybliża statystyczne dane o występowaniu konkretnych terminów. Następnie przedstawiono elementy wizualizacyjne wykorzystane w pracach informatologów. Na zakończenie artykułu porównano wyniki analiz każdego z czasopism oraz określono tematykę wykorzystanego obrazowania.
Tematyka prac przygotowanych przez polskich informatologów w XXI wieku piszących o systemach informacyjnych
Autorka przeprowadziła bibliometryczną analizę tematyki opracowanej przez polskich badaczy systemów informacyjnych z zakresu informatologii w XXI wieku, którzy opublikowali swoje prace w dwóch polskich czasopismach z tego zakresu: Zagadnieniach Informacji Naukowej (ZIN) oraz Praktyce i Teorii Informacji Naukowej i Technicznej (PTINT). Dokładniej ujmując czas, są to lata 2000–2015, gdyż w trakcie pisania tego artykułu nie zostały opublikowane numery PTINT–u z 2016 r. Co prawda dla ZIN–u pojawiły się numery 1 i 2, ale w związku z chęcią porównania tych dwóch czasopism nie poszerzono zakresu chronologicznego. Do analizy, poza metodami statystycznymi, wykorzystano także wizualizacje.
Wybierając artykuły dotyczące systemów informacyjnych, stosowano się do szeroko rozumianego terminu, przedstawionego wcześniej. Wykluczono sprawozdania z konferencji, sympozjów itp. czy recenzje książek, nawet jeśli dotyczyły one w jakiś sposób systemów informacyjnych, gdyż głównym celem było przeanalizowanie pól badawczych współczesnych polskich naukowców oraz przede wszystkim przeanalizowanie zastosowanych elementów wizualizacyjnych. A tych ostatnich sprawozdania czy recenzje nie zawierają (w odniesieniu do systemu informacyjnego, gdyż oczywiście pojawić się mogą czasem np. zdjęcia z konferencji). Wykluczono także generalne analizy terminologiczne dotyczące terminów niezwiązanych bezpośrednio z systemami, prace o metodach naukowych, o rozwoju czasopism, stowarzyszeniach itp., a także pewne ogólne prace o kształceniu, dotyczące np. akredytacji kierunków studiów z zakresu bibliologii i informatologii.
Zagadnienia Informacji Naukowej (ZIN) – tematyka artykułów
Przeglądając numery ZIN–u z lat 2000–2015, wytypowano do analizy 167 artykułów dotyczących systemów informacyjnych, ich zasobów, wykorzystania oraz użytkowników (twórców i odbiorców).
Dokonując statystycznej analizy tematycznej, stwierdzić można, iż najczęściej odnoszono się do polskich systemów („Polska”, „polski” – wystąpienie w 13,17% tytułów), do „Internetu” (9,58%), „systemów” (systemów informacyjnych, systemów informacyjno–wyszukiwawczych, systemów – 9,58%) i „informacji” przechowywanej w systemach (8,98%). Kolejne istotne pojęcia to: „języki informacyjno–wyszukiwawcze” i „metadane” (po 5,39%), a także „użytkownicy” (4,79%). Wszystkie języki (jiw) naturalne i haseł przedmiotowych to 9,58% wystąpień wszystkich sformułowań. Kolejne często stosowane w tytułach terminy, o mniejszej już liczebności, to: „wiedza” (4,19%), „zarządzanie” i „organizacja” danych (po 3,59%) oraz pojęcia takie jak: „biblioteki”, „metody”, „open access”, „problemy”, „przykłady” (po 2,99%), głównie ze względu na zmiany właśnie zachodzące w systemach i ich otoczeniu, prezentowane w artykułach.
Dla lepszego zobrazowania powyższych wyników analiz przygotowano chmury tagów przedstawiające główne zagadnienia podejmowane przez polskich informatologów. Chmury tagów nie są bardzo dokładne w przedstawianiu różnic statystycznych, lecz pozwalają na dość szybkie zorientowanie się, jakie zagadnienia były ważne (poprzez zastosowanie różnej wielkości czcionek i kolorystyki). Można je także traktować jako estetyczne uzupełnienie treści publikacji (zob. np. Smółka–Dolecka 2016).
Podstawą stworzenia obrazowania były tytuły artykułów przetworzone przez autorkę. Z związku z brakiem perfekcyjnie działających w wybranych programach słowników języka polskiego dokonano zmian wszystkich terminów (rzeczowników) używanych w różnych przypadkach do mianownika, wykluczono wyrazy nieznaczące (spójniki, zaimki itp.), zaznaczono złożoność wyrazów (nie wszystkie programy pozwalają zastosować wyrażenia złożone w chmurach tagów, co zaprezentowano na rysunkach 1 i 4), przetworzono czasowniki itd., tak, aby chmura tagów nie była wyłącznie prezentacją terminów występujących wyłącznie po jednym razie (właśnie w różnych przypadkach, odmianach itp.).
Powstałe chmury tagów, do których wykorzystano dostępne w sieci Internet programy, zaprezentowano na poszczególnych elementach rysunku nr 1. Załączono wiele przedstawień tematyki podejmowanej przez badaczy, aby ukazać, na jak wiele sposobów można ją przedstawić i jak te różnorodne wizualizacje mogą wpływać na recepcję użytkowników. Na wszystkich elementem znaczącym jest „Polska” (nazwa kraju lub przymiotnik). Oprogramowania tworzące chmury tagów z pojedynczych wyrazów bardziej podkreślają pojęcia: „informacja”, „systemy”, „Internet”, „język”, „wyszukiwanie”, „metadane”, „narzędzia” itp. Terminy złożone wskazują już na: „języki informacyjno–wyszukiwawcze”, „systemy informacyjno–wyszukiwawcze” czy „open access”.
Rysunek 1. Chmury tagów utworzone z pojęć budujących tytuły artykułów
Rysunek 1a. Word Art – pojedyncze wyrazy
Rysunek 1b. Tagxedo – pojedyncze wyrazy
Rysunek 1c. Voyant–Tool – pojedyncze wyrazy – 55 najczęstszych słów
Rysunek 1d. Voyant–Tool –relacje między najczęstszymi terminami
Rysunek 1e. Wordle – terminy złożone i pojedyncze wyrazy
Rysunek 1f. Tag Crowd – terminy złożone i pojedyncze wyrazy
Źródło: oprac. własne.
Opisując zaprezentowane chmury tagów, stwierdzić można, iż oprogramowania: Word Art i Tagxedo, estetyzujące dane w różnorodnych kształtach, przedstawiają pojedyncze wyrazy zastosowane w tytułach. Word Art zdecydowanie podkreśla trzy najczęściej występujące terminy: „Polska”, „Internet”, „systemy”, zaś Tagxedo bardziej rozmywa różnice. Wordle, wizualizujący także terminy złożone, tworzy chmury tagów chyba najbardziej znane z portali internetowych, dając możliwości pewnej ich personalizacji, dobrze różnicując ważność terminów poprzez wielkość czcionki i kolor. Word Cloud
(rys. 7), również prezentujący wyrażenia złożone, wizualizuje je w bardziej zrozumiały i zróżnicowany sposób (podobnie jak Wordle nie tylko przez zmianę wielkości czcionki, lecz i natężenie barwy). Tag Crowd nie daje zbyt dużej możliwości zmian wyglądu, kształtu chmury, czcionki czy kolorystyki, tworząc proste analizy z opcją uzupełnienia ich o dane statystyczne. Voyant–Tool pozwala na więcej analiz np. poprzez wyobrażanie relacji oraz występowania wyrazów w poszczególnych akapitach (tej ostatniej możliwości w tym artykule nie zastosowano, ze względu na „jednoakapitowość tytułów”). Większość tych programów wizualizuje ok. 100 najczęstszych wyrazów na chmurach, chociaż np. Voyant–Tool czy Tag Crowd dają użytkownikowi możliwość wyboru liczebności terminów (zob. rys. 1c i 1d).
Dla lepszego zaprezentowania występowania pojęć i relacji między najczęściej występującymi terminami przygotowano również dendrogram, który stanowi rysunek nr 2.
Rysunek 2. Dendrogram dla tytułów artykułów opublikowanych w ZIN–ie
Źródło: oprac. własne. Wykorzystano program: WordStat, ver. 7.0.12.
Jak widać z wizualizacji relacji w tytułach można wyróżnić dwie główne grupy złożone z terminów:
−
„Polska” i „Internet”, a także: „biblioteki”, „elektroniczne” i „informacji” (termin „informacji” wydzielony z takich wyrażeń złożonych, jak np. „źródła informacji”, „systemy informacji” czy „pracownicy informacji”),
−
oraz „systemy”, „informacyjno”, „wyszukiwawcze” (pojęcia wydzielone także z wyrażeń wielowyrazowych) i „język”, jak również: „informacja” i „system”.
Najczęściej występujący termin „Polska” na wykresie bliskości (proximity plot) skojarzony jest przede wszystkim z pojęciami: „Internet”, „elektroniczne” i „system”, co zaprezentowano na rysunku nr 3.
Rysunek 3. Skojarzenia z terminem: „Polska”
Źródło: oprac. własne. Wykorzystano program: WordStat, ver. 7.0.12.
Przygotowane analizy statystyczne i wizualizacje wskazują, iż największy wpływ na tematykę podejmowanych zagadnień miały zmiany organizacyjne, technologiczne (nowe programy, modernizacja systemów, rozbudowa sieci), związane ze strukturami danych oraz opracowywaniem rzeczowym przechowywanej informacji zachodzące w systemach informacyjnych w naszym kraju. Drugim istotnym bodźcem były prowadzone badania nad wprowadzaniem nowych ontologii, taksonomii i klasyfikacji, nad językiem naturalnym i sposobami wyszukiwania informacji oraz opisem informacji, możliwością automatyzowania opracowania itd. Mniej było analiz o użytkownikach informacji, chociaż takowe zostały także opublikowane (4,79%).
Praktyka i Teoria Informacji Naukowej i Technicznej (PTINT) – tematyka prac
Z numerów czasopisma z lat 2000–2015 wybrano 246 artykułów związanych z systemami informacyjnymi. Analiza tytułów wykazała, iż statystycznie rzecz ujmując, najczęściej stosowanym pojęciem jest: „informacja”, występująca w 25,61% tytułów. Do tego dochodzi przymiotnik: „informacyjne” (13,82%) oraz termin złożony: „informacja naukowa” (6,91%). Następna według częstotliwości wykorzystania jest grupa terminów: „biblioteka” lub „biblioteki” (8,94%; 6,10%), „biblioteka główna” (4,07%) i „biblioteka akademicka” (2,85%). Kolejne są: „Polska” i „Internet” (po 10,16%), „systemy” lub „system” (6,10%; 3,25%), „badania” (8,54%), „źródła” lub „źródło” (6,10%; 1,63%), „użytkownicy” lub „użytkownik” (5,28%; 2,03%), „zakres” (6,91%), „wiedza” (5,69%), „wybrane” (5,69%) oraz „potrzeby” i „zarządzanie” (po 4,88%). Zobrazowanie ich częstotliwości wykorzystania przez autorów prac przedstawiono, przygotowując, podobnie jak przy artykułach z ZIN–u, chmury tagów (rys. 4).
Rysunek 4. Chmury tagów utworzone z pojęć budujących tytuły artykułów
Rysunek 4a. Word Art – pojedyncze wyrazy
Rysunek 4b. Tagxedo – pojedyncze wyrazy
Rysunek 4c. Voyant–Tool – pojedyncze wyrazy – 55 najczęstszych słów
Rysunek 4d. Voyant–Tool – relacje między najczęstszymi terminami
Rysunek 4e. Wordle – terminy złożone i pojedyncze wyrazy
Rysunek. 4f. Tag Crowd – terminy złożone i pojedyncze wyrazy
Źródło: oprac. własne.
Podobnie jak przy wizualizacji tytułów artykułów z ZIN–u, przygotowane chmury tagów dla artykułów z PTINT–u różnią się między sobą. Tagxedo zdecydowanie bardziej upodabnia do siebie wielkości terminów, które dobrze są zaprezentowane na chmurce z Word Art. Wordle i Voyant–Tool dały możliwość przygotowania dość podobnych wizualizacji terminów ze zdecydowanym podkreśleniem najczęstszego. To ostatnie oprogramowanie pozwoliło także przygotować zobrazowanie relacji między najczęstszymi terminami („informacja” i „naukowa”). Tag Crowd zobrazował różnice między częstotliwością występowania pojęć dobierając wielkość czcionki, poprawnie je prezentując. Dzięki Word Cloud (rys. 7) można było dopracować wizualizację tytułów także kolorystycznie.
Dendrogram dla artykułów z PTINT–u (rys. 5) jest bardziej rozbudowany od wcześniej zaprezentowanego dendrogramu dla artykułów z ZIN–u, co oznacza większe rozproszenie relacyjne często stosowanych terminów. I tak współzależności dla najczęściej pojawiającej się „informacji” to „naukowa”, „źródła” i „Internet” skojarzone z grupą „wiedza”, „zarządzanie” i „organizacja”. Drugi często występujący termin to: „biblioteka”, związany z „główna” i „akademia”, połączony z grupą „użytkownicy”, „potrzeby” i „przykład”. Pozostałe skupiska pojęć to: „Polska”, „biblioteki”, pozostające w relacji z „wybrane” i „analiza”, skorelowane z „działalność”, „informacyjna” i „zakres”. „Informacyjne”, „badania” i „studenci” łączą się ze „środowiskiem”. Natomiast „baza danych” zintegrowana jest z „system” i „elektroniczne”.
Rysunek 5. Dendogram dla tytułów opublikowanych w Ptincie
Źródło: oprac. własne. Wykorzystano program: WordStat, ver. 7.0.12.
Dla najczęściej występującej „informacji” przygotowano także wykres bliskości (proximity plot – rys. 6), wskazując najczęstsze połączenia z „naukowa”, „źródła”, „Internet”, „system” i „biblioteka”.
Rysunek 6. Skojarzenia z terminem „informacja”
Źródło: oprac. własne. Wykorzystano program: WordStat, ver. 7.0.12.
Porównanie tematyki artykułów
Porównując tematykę prac opublikowanych w Zagadnieniach Informacji Naukowej oraz Praktyce i Teorii Informacji Naukowej i Technicznej można stwierdzić, iż:
−
ZIN jest bardziej zróżnicowany tematycznie, gdyż nie ma zdecydowanej przewagi jednego terminu,
−
w ZIN–ie najczęściej, choć tylko w 13,17%, występuje „Polska”, co oznacza, iż zbliżone do siebie tematycznie prace przedstawiają konkretne systemy wykorzystywane w kraju,
−
ZIN przyjął do druku więcej artykułów ogólnych, o systemach różnorodnie rozumianych, tzn. nie tylko o konkretnych systemach bibliotecznych, bazach danych itp.,
−
w Ptincie pojawiło się więcej opracowań pojedynczych systemów (czasem lokalizowanych na tle innych),
−
dużo systemów omawianych w ZIN–ie to systemy dostępne w sieci Internet (serwisy, portale, internetowe bazy danych),
−
autorzy artykułów opublikowanych w Ptincie bardzo często w tytułach wykorzystywali rzeczownik „informacja” lub przymiotnik „informacyjny” (46,34%), co wskazuje, iż to pojęcie była najistotniejsze dla autorów,
−
wykorzystanie grupy terminów „biblioteka” (21,96%) wskazuje, iż w Ptincie częściej publikowano prace o systemach bibliotecznych.
Wizualizację najczęstszych terminów dla lepszego ich zobrazowania zaprezentowano w formie wykresów i chmur tagów na rysunku nr 7.
Rysunek 7. Porównanie tematyki dwóch czasopism
Rysunek 7a. Zagadnienia Informacji Naukowej – najczęściej wykorzystywane terminy
Rysunek 7b. Praktyka i Teoria Informacji Naukowej i Technicznej – najczęściej wykorzystywane terminy
Rysunek 7c. Word Cloud – ZIN – terminy złożone i pojedyncze wyrazy – 100 najczęstszych słów
Rysunek 7d. Word Cloud – PTINT – terminy złożone i pojedyncze wyrazy – 100 najczęstszych słów
Źródło: oprac. własne.
Kolejnym podjętym przez autorkę zagadnieniem było wykorzystanie elementów wizualizacyjnych, co stanowi przedmiot dalszej części artykułu.
Wizualizacja systemów informacyjnych – model
Wizualizacje prezentujące systemy informacyjne przedstawiać mogą analizę danych, struktur oraz procesów zachodzących w nich i wokół nich, a więc skupiać się na technologiach informacyjnych, organizacji informacji, wykorzystaniu informacji przez użytkowników oraz na ogólnych i szczegółowych ocenach. Można wizualizować zarówno całe systemy informacyjne, jak i poszczególne ich składowe. Obrazowanie to najczęściej w różnorodnych publikacjach eksponowane jest w postaci dwuwymiarowej (wykresy, tabele, zdjęcia, rysunki, czasem mapy).
Elementy, które wykorzystać można w infografikach dla przedstawienia SIW, odnosić się mogą, zgodnie z wcześniej przedstawionym podziałem, do:
−
danych statystycznych – np. dla wyrażenia zasobów, liczby i rodzajów użytkowników itp.),
−
zmian w czasie – np. dla prezentacji progresu w rozwoju systemu, ewolucji jego użyteczności itp.),
−
procesów – np. dla zwizualizowania usług oferowanych przez system,
−
geografii i lokalizacji – np. do zobrazowania lokalizacji organizacji wykorzystujących konkretny SIW czy użytkowników docierających do danych z różnych krajów, miejscowości, poprzez konkretny IP itd.
Poszczególne grupy typologii NeoMam także można zastosować do analizy systemów informacyjnych. Interesujące mogą być zwłaszcza „użyteczne przynęty”, wyjaśniające np., jak dotrzeć do informacji lub zamieścić dokument w systemie (np. w repozytorium), czy wizualizacje przeciwstawnych danych porównujące np. wady i zalety systemu, które ujawniły się w trakcie oceniania go przez użytkowników końcowych. Do tego dochodzą jeszcze wykorzystywane zdjęcia prezentujące interfejsy, zwłaszcza webowe, dla wyszukiwania i prezentowania informacji użytkownikom końcowym, jak i klienckie – dla wprowadzania danych. Fotografie, dzięki swojemu znacznikowi czasowemu, obrazują również zmiany samego SIW w historii jego trwania, zarówno funkcjonalności, jak i estetyki.
Typy ilustracji, które można wykorzystać do wizualizacji informacji o systemach, to przede wszystkim: tabele, wykresy, różnego rodzaju rysunki (zwłaszcza diagramy), mapy, zdjęcia oraz infografiki (w rozumieniu przygotowanej w konkretnym celu przetworzonej obrazowej informacji, najczęściej zawierającej poza elementami graficznymi także teksty i liczby).
Ogólne prezentacje całego SIW przedstawiać można przede wszystkim na diagramach prezentujących ich budowę (logiczną oraz rzeczywistą – informatyczną, plikową), procesy zachodzące w systemach, ich funkcjonalność, grupy usług itp., jak przykładowo zaprezentowano to na rysunku nr 8. Wizualizacje konkretnych systemów zawierać powinny oczywiście wyszczególnienie poszczególnych elementów (np. typy dokumentów w zasobie, potencjalnych klientów wśród odbiorców itp.). Do tego dochodzą tabele i statystyki np. prezentujące ilościowe wykorzystanie konkretnych systemów przez poszczególne instytucje i organizacje, co bywa także wizualizowane w postaci map.
Rysunek 8. Ogólna prezentacja systemu
Rysunek 8a. Od twórców do odbiorców poprzez system informatyczny, zasób i strukturę
Rysunek 8b. Fazy życia SIW, model kaskadowy, diagram Gantta
Time Project by lbear
Źródło: oprac. własne. Do stworzenia ilustracji wykorzystano cliparty ze strony https://openclipart.org/.
Poszczególne elementy systemu, które zaprezentować można w pracach o systemach informacyjnych, to przedstawienia ich struktur w postaci diagramów lub tabel z wykazami pól i relacji, rozrysy ich budowy informatycznej dla konkretnych typów plików (np. umieszczenie konkretnych typów danych na różnych serwerach, systemu zarządzania na innym itd.), informacje o wykorzystaniu zasobów np. w formie wykresów prezentujących statystyki udostępniania itp., co przykładowo zaprezentowano na rysunku nr 9.
Rysunek 9. Prezentacje wizualne elementów systemu i ich wykorzystania
Rysunek 9a. Jagiellońska Biblioteka Cyfrowa – zestawienie wg liczby wyświetlonych publikacji – wykres
Źródło: http://jbc.bj.uj.edu.pl/dlibra/pubstats (4.05.2017).
Rysunek 9b. Jagiellońska Biblioteka Cyfrowa – najczęściej czytane publikacje – tabela z danymi
Źródło: http://jbc.bj.uj.edu.pl/dlibra/collectionstats (4.05.2017).
Elementy wizualizacyjne w artykułach
Autorzy artykułów z PTINT–u i ZIN–u zastosowali wyłącznie elementy dwuwymiarowe. Wersje elektroniczne czasopism stanowią kopie ich wersji drukowanych i nie zostały opatrzone dodatkowym materiałem ilustracyjnym np. interaktywnymi wizualizacjami, co oznacza, iż podział zastosowany przez autorkę odnosił się do podstawowych typów elementów wizualizacyjnych. Z kategoryzacji zostały wyłączone infografiki (opublikowane numery czasopism zawierają elementy wizualizacyjne, które można zaliczyć do rysunków, a nie do rozbudowanych infografik) oraz mapy (nieliczne, o czym za chwilę).
Zagadnienia Informacji Naukowej (ZIN) – zastosowane wizualizacje
W swoich artykułach autorzy zastosowali standardowe elementy wizualizacyjne, tzn.: tabele, wykresy (czasem podpisywane jako rysunki), zdjęcia i rysunki. W sumie w 100 artykułach, czyli w 59,88%, wykorzystano chociaż jeden element z wyżej wymienionych (od 1 aż do 29). Najliczniej pojawiają się w artykułach tabele (37,72%) prezentujące wykazy działów czy zasobów (czasem są to tabele ciągnące się przez kilka stron). Do tego dochodzą spisy elementów opisów danych lub wykazy danych (np. zastosowanych klasyfikacji), czasem tylko typograficznie wyróżnione z całego tekstu. Te ostatnie, niezamknięte w tabelach, przedstawiane jako elementy cytowane, nie zostały oczywiście zaliczone do omawianych statystyk.
Następne w kolejności są rysunki zamieszczone w 21,55% tekstów. Przybliżają one np. schematy procesów, działania, podziału systemu, współpracy systemów, diagramy przepływu informacji, modele przetwarzania informacji itp.
Zdjęcia z 12,57% artykułów głównie prezentowały interfejsy systemów, zwłaszcza ich wersji webowych, możliwości wyszukiwacze i prezentacji danych, statystyki ze stron internetowych (np. odwiedzin) lub sprzęt komputerowy.
Wykresy, które pojawiły się w 8,38% prac opublikowanych w ZIN–ie, to np. udziały procentowe zasobów, przedstawienie zmian, które nastąpiły w systemie w czasie, statystyki użytkowników czy częstotliwości występowania poszczególnych elementów systemu.
Kilka map, które autorzy zastosowali w swych pracach, zostało zaliczonych do zdjęć i rysunków, gdyż są to przede wszystkim screenshoty aplikacji webowych przedstawiające połączenia sieci internetowych.
Dokładny wykaz zastosowanych elementów wizualizacyjnych wykorzystanych w pracach wraz z przedstawieniem liczby poszczególnych ich typów (tabele, wykresy, rysunki, zdjęcia) zaprezentowano na wykresie 1.
Wykres 1. Elementy wizualizacyjne zastosowane w artykułach opublikowanych
w ZIN–ie
Wykres 1a. Liczby artykułów zawierające elementy wizualizacyjne
Wykres 1b. 63 (37,72%) artykuły zawierające tabele
Wykres 1c. 14 (8,38%) artykułów zawierających wykresy
Wykres 1d. 36 (21,55%) artykułów zawierających rysunki
Wykres 1e. 21 (12,57%) artykułów zawierających zdjęcia
Źródło: oprac. własne.
Praktyka i Teoria Informacji Naukowej i Technicznej (PTINT) – zastosowane
wizualizacje
Artykuły z PTINT–u zawierające elementy wizualizacyjne stanowią 61,38% (151) z wszystkich prac zaliczonych do opracowań systemów informacyjnych. Dokładne przedstawienie zastosowania konkretnych typów obrazowania danych stanowi wykres nr 2.
Podobnie jak w ZIN–ie, najczęściej wykorzystywane były przez badaczy tabele (w 35,77% prac). Natomiast pozostałe elementy były już stosowane w inny sposób, gdyż statystycznie rzecz ujmując, kolejne okazały się być zdjęcia (21,13%), potem wykresy (18,70%) i rysunki (15,45%) (porównanie – zob. wykres 3).
Tabele stosowano głównie dla przedstawienia wykazu danych (na różnym ich poziomie, od danych statystycznych, przez elementy opisu, po wykaz źródeł). Zdjęcia ukazywały przede wszystkim wyglądy interfejsów oraz prezentacje danych poprzez system, chociaż pojawiały się i budynki (lub ich części) instytucji wykorzystujących konkretne oprogramowanie. Jedna z nielicznych map (zaliczonych do zdjęć ze względu na wykorzystane do jej stworzenia elementy) to przykładowo schemat infrastruktury usługi powszechnej archiwizacji Platon U4. Wykresy ilustrowały dane liczbowe wskazujące np. na zasobność systemu lub jego wykorzystanie. Natomiast rysunki to często schematy działania lub zobrazowania budowy i procesów zachodzących w systemach.
Wykres 2. Elementy wizualizacyjne zastosowane w artykułach opublikowanych
w Ptincie
Wykres 2a. Liczby artykułów zawierające elementy wizualizacyjne
Wykres 2b. 88 (35,77%) artykułów zawierających tabele
Wykres 2c. 46 (18,70%) artykułów zawierających wykresy
Wykres 2d. 38 (15,45%) artykułów zawierających rysunki
Wykres 2e. 51 (21,13%) artykułów zawierających zdjęcia
Źródło: oprac. własne.
Podsumowanie zastosowanych elementów wizualizacyjnych. Tematyka i wizualizacje
Podsumowując wykorzystanie elementów wizualizacyjnych, stwierdzić można, iż autorzy artykułów opublikowanych w obydwu czasopismach stosowali w podobny sposób jedynie tabele. Rysunki były częstszą składową prac publikowanych w ZIN–ie, zapewne ze względu na większą możliwość prezentacji modeli systemów, wiedzy ogólnej, diagramów czy schematów działania. PTINT upublicznił więcej zdjęć oraz wykresów, głównie ze względu na prezentację konkretnych SIW. Wizualizacja tych danych została zaprezentowana na wykresie nr 3. W obydwóch czasopismach rzadko pojawiały się mapy.
Wykres 3. Procentowy udział wszystkich oraz poszczególnych elementów wizualizacyjnych w czasopismach ZIN i PTINT – porównanie
Źródło: oprac. własne.
Jeśli chodzi o liczby stosowanych elementów wizualizacyjnych w poszczególnych artykułach, to stwierdzić można, iż najczęściej pojawiały się pojedyncze, podwójne lub potrójne wizualizacje (np. 1 tabela, 2 zdjęcia lub 3 wykresy). Najliczniej zaprezentowano natomiast: zdjęcia – 28 w jednym z artykułów z PTINT–u oraz rysunki – 22 w jednym z tekstów w ZIN–ie (zob. wykresy 1 i 2).
Najczęstszymi z elementów wizualizacyjnych określonych w wymienionych wcześniej typologiach były dane statystyczne oraz prezentacje procesów, o czym wspomniano już wcześniej. Zmiany w czasie głównie odnosiły się do wzrostu zasobów lub użytkowników systemów (zarówno instytucji, jak i użytkowników końcowych). Nie bezpośrednio, ale jako świadectwo zmian w czasie, można również potraktować upublicznione zdjęcia interfejsów. Dane dotyczące geografii i lokalizacji nie były zbyt często wykorzystywane, o czym już kilkakrotnie wzmiankowano, pisząc o mapach.
Wyróżnione z typologii NeoMam tzw. „użyteczne przynęty” czy wizualizacje przeciwstawnych danych także nie były zbyt częste. Głównie odnosiły się do opisu funkcjonalności systemu czy bardzo nielicznych danych o ocenie systemu.
Ostatnia już analiza statystyczna dotyczyła relacyjności podjętej tematyki i obrazowania systemu. Okazało się, iż najczęściej wizualizowano w ZIN–ie: systemy „internetowe” (166 elementów) i „informację” (154), a w Ptincie: „informację” (329) i „biblioteki” (256). Najliczniejsze w ZIN–ie tabele (140) także odnosiły się do „Internetu”. Natomiast w Ptincie tabele (105) i zdjęcia (106) przygotowano w pracach o „informacji”, zaś wykresy (104) w tekstach o „bibliotekach”. Dokładnie można odczytać dane statystyczne z wykresu nr 4.
Wykres 4. Elementy wizualizujące zastosowane w artykułach zawierających najczęściej wykorzystywane terminy
Źródło: oprac. własne.
Zakończenie
W artykule zaprezentowano, jak autorzy artykułów opublikowanych w czasopismach PTINT i ZIN wizualizowali systemy informacyjne, próbując poprzez różnego rodzaju elementy wizualizacyjne przybliżyć wyniki diagnoz tychże systemów, oraz ukazano, iż można także do analizy piśmiennictwa naukowego (które można rozumieć również jako system informacyjny) zastosować wizualizację informacji o zawartości publikacji.
Jeśli chodzi o pierwszy cel badań, to stwierdzić można, iż w obydwóch czasopismach w podobny sposób poszerzano treści artykułów o wizualizacje: w ZIN–ie w 59,88%, w Ptincie 61,38%, chociaż na liczby te składają się w dużym stopniu tabele (a więc przede wszystkim elementy tekstowe i liczbowe). Podsumowując: organizacje i struktury systemów informacyjnych oraz diagnozy ich historycznego i obecnego funkcjonowania, czy planowanie dalszego rozwoju daje się prezentować poprzez wizualizowanie zarówno w całości, jak poprzez obrazowanie poszczególnych elementów.
Po przygotowaniu drugiej analizy autorka doszła do następujących wniosków:
1. Wizualizacje w atrakcyjny sposób dopełniają treści tekstowe.
2. Brak całkowicie przygotowanych i podłączonych do programów komputerowych słowników językowych (także synonimicznych i przedmiotowych) powoduje pewne utrudnienia dla badaczy, którzy sami przetwarzają dane, niekoniecznie identycznie, jak zrobiliby to inni naukowcy. Dokładniejsze opracowanie treści np. w oparciu o tezaurusy, dałoby ściślejszą analizę tematyczną. Np. informacji o konkretnych systemach wykorzystywanych w Polsce jest więcej niż wyszło to z analizy statystycznej terminów „Polska” i „polski”, ponieważ nie zostały one zawsze użyte, gdy w artykule głównym tematem był np. system wykorzystywany w konkretnej uczelni czy w mieście. Podobnie w tytułach artykułów dotyczących serwisów internetowych nie zawsze zastosowano termin „Internet”, w zamian pojawiały się „interfejs”, „serwis” lub „portal”).
3. Niedostatki systemów statystycznych i wizualizacyjnych będą powodować trudności w dokładnym porównywaniu różnorodnych analiz.
Pomimo niedogodności opisanych w punkcie 2 i 3 „wizualizacyjny” sposób analizy piśmiennictwa wydał się autorce atrakcyjny, jako nie tylko dający więcej bodźców estetycznych, lecz także wpływający na merytoryczny odbiór dzieł.
Podsumowując ostatecznie artykuł, stwierdzić można, iż wizualizacja może i powinna być stosowana jako technika analizy struktur i diagnozowania funkcjonowania systemów informacyjnych.
Bibliografia
1.
Grave, Dave; Velasco, Juan (2007). What is infographic. http://communicationnation.blogspot.com/2007/04/what–is–infographic.html (odczyt: 24.05.2017).
2.
Infografika to obraz, który łatwo sprzeda trudny temat. Sprawdź, jak ją zaprojektować (2011–2017). http://www.projektowaniegraficzne.pl/jak–zaprojektowac–info
grafike/ (odczyt: 24.05.2017).
3.
McCandless, David (2009a). Information is beautiful. London: Collins.
4.
McCandless, David (2009b). Interesting, easy, beautiful, true. http://www.informa
tionisbeautiful.net/2009/interesting–easy–beautiful–true/ (odczyt: 24.05.2017).
5.
McCandless, David (2012). Information is beautiful. 2ed. London: William Collins – an imprint of HarperCollinsPublishers.
6.
McCandless, David. Information is beautiful. http://www.informationisbeautiful.net/ (odczyt: 24.05.2017).
7.
McCandless, David (2014). Knowledge is beautiful. London: William Collins – an imprint of HarperCollinsPublishers.
8.
Osińska, Veslava (2010). Wizualizacja i wyszukiwanie dokumentów. Warszawa: Wydawnictwo SBP.
9.
Osińska, Veslava (2016). WIZualizacja INFOrmacji. Studium informatologiczne. Toruń: Wydawnictwo Naukowe Uniwersytetu Mikołaja Kopernika.
10.
Smółka–Dolecka, Agnieszka (2016). Chmura słów jako nowoczesna metoda prezentacji danych. http://www.marketingirynek.pl/files/1276809751/file/smolkadolecka_mir_1_2016.pdf (odczyt: 24.05.2017).
11.
System informacyjno–wyszukiwawczy (2002). W: Bożenna Bojar red. Słownik encyklopedyczny informacji, języków i systemów informacyjno–wyszukiwawczych. Warszawa: Wydawnictwo SBP, s. 261.
12.
Visualization in scientific computing (1987). http://www.sci.utah.edu/vrc2005/Mc
Cormick–1987–VSC.pdf (odczyt: 24.05.2017).
13.
What is visualization? http://www.infovis.org/ (odczyt: 24.05.2017).
14.
Wizualizacja „a”. W: Encyklopedia PWN.
http://encyklopedia.pwn.pl/encyklopedia/wizualizacja;2.html (odczyt: 24.05.2017).
15.
Wizualizacja „b”. W: Słownik języka polskiego PWN. http://sjp.pwn.pl/szukaj/wi
zualizacja.html (odczyt: 24.05.2017).
16.
Wizualizacja „c”. W: Słowosieć. http://plwordnet.pwr.wroc.pl/wordnet/4828f9ac–0d17–11e6–b341–7a5d273e87eb (odczyt: 24.05.2017).
Programy do tworzenia chmur tagów:
1.
Tag Crowd – http://tagcrowd.com/
2.
Tagxedo – http://www.tagxedo.com/app.html
3.
Voyant–Tool – http://voyant–tools.org/
4.
Word Art – https://wordart.com/create
5.
Word Cloud – https://worditout.com/word–cloud/create
6.
Wordle – http://www.wordle.net/
Anna Mierzecka
Wydział Dziennikarstwa, Informacji i Bibliologii, Uniwersytet Warszawski
Ewaluacja rozwiązań wyszukiwania treści
stosowanych przez europejskie biblioteki
akademickie w kontekście nawyków informacyjnych użytkowników
Search possibilities at the websites of European
academic libraries in the context of users’
information behaviour
Słowa kluczowe: biblioteki akademickie, strony internetowe, użytkownicy, wyszukiwanie, zachowania informacyjne.
Keywords: academic libraries, electronic resources, information behaviour, search tools, users.
Abstrakt
Rozwój technologiczny ostatnich dwudziestu lat w istotnym stopniu wpłynął na zmiany nawyków informacyjnych użytkowników, zwłaszcza w zakresie sposobów docierania do informacji. Droga do znalezienia informacji to przede wszystkim wpisanie poszukiwanej frazy i wynik wyświetlany na pierwszej stronie. Zmiany te dotyczą również świata nauki. Celem niniejszego artykułu jest diagnoza stopnia zgodności narzędzi wyszukiwania stosowanych przez europejskie biblioteki uniwersyteckie z potrzebami użytkowników. Na podstawie przeglądu literatury wskazano, jak obecnie kształtują się nawyki wyszukiwania użytkowników i jakie są ich oczekiwania. W tym kontekście przebadano strony internetowe bibliotek uniwersytetów europejskich znajdujących się wśród stu najlepszych placówek według rankingu szanghajskiego. Przeprowadzona analiza wskazuje, że najczęściej stosowane rozwiązanie to okno wyszukiwania zintegrowanego: sposób, który nie wymaga od użytkownika uprzedniej znajomości typów zasobów bibliotecznych. Stopień ekspozycji na stronie narzędzi wyszukiwania pokazuje, że bibliotekarze nie są skłonni traktować udostępniania zbiorów jako głównej funkcji strony bibliotecznej.
Abstract
The ICT revolution has strongly influenced users’ information behaviour, especially related to information seeking. In general: people use keywords and expect search results on the first page. These expectations are visible also in academia. The purpose of this paper is to verify the extent to which search solutions used by European academic libraries meet users’ requirements. The literature review revealed information needs and behaviours of academic library users. It made the basis to evaluate the search tools available at the European academic library websites. For the purposes of the inquiry, the libraries of the best European universities (the top 100 at the Academic Ranking of World Universities) were chosen. The federate search-box is the most popular in academic libraries, the solution of search functionalities similar to Google. This result confirms users’ information needs as described in literature. The place and mode of presentation of search tools on the website led to the conclusion that librarians do not agree with the opinion that the main library function is to give access to resources.
Wstęp
Jedną z głównych zalet powszechności technologii informacyjno-komunikacyjnych jest łatwa dostępność informacji na niemalże każdy temat. Dla wykorzystania tego potencjału kluczowe jest właściwe wyszukanie relewantnych treści. Z tego względu wyszukiwanie informacji nie jest już elitarną aktywnością właściwą dla osób zajmujących się pracą intelektualną, a jednym z wielu zadań wykonywanych w trakcie czynności dania codziennego. Wyszukiwanie w świecie cyfrowym od wielu lat zdominowane jest przez cyfrowego giganta – firmę Google. O dominacji tej firmy świadczą statystyki wykorzystania zdecydowanie najpopularniejszej na świecie wyszukiwarki. Po roku od powstania, w roku 1999 dzienna liczba wyszukiwań była na poziomie 3 milionów zapytań na dobę, statystyki na rok 2016 mówią o średniej liczbie wyszukiwań na poziomie 5,5 biliona dziennie (Sullivan, 2016). Te liczby to nie tylko wynik coraz powszechniejszego korzystania z Internetu, ale również dominującej pozycji firmy Google na rynku. Według danych z marca 2017 Google obejmuje ponad 77 % udziałów w rynku wyszukiwarek internetowych (il. 1). O przenikaniu tego narzędzia do naszej codzienności mogą też świadczyć coraz powszechniej stosowane zarówno w języku polskim, jak i angielskim sformułowania potoczne, przede wszystkim „wyguglować” jako synonim czasownika „wyszukać” (w języku angielskim googling something, googlized, itd.).
Ilustracja 1. Udział w rynku wyszukiwarek internetowych, dane z marca 2017
Źródło: NetMarketShare (2017). Desktop Search Engine Market Share. https://www.netmarketshare.com/search-engine-market-share.aspx?qprid=4&qpcustomd=0 (odczyt: 10.04.2017).
Dominacja Google utrzymująca się od ponad 15 lat ma różne konsekwencje, między innymi wpływa w znaczący sposób na nawyki informacyjne użytkowników Internetu. Wobec tej sytuacji nie mogą pozostać obojętne biblioteki, które w świecie cyfrowym starają się pozostać konkurencyjne wobec innych źródeł informacji. Celem niniejszego artykułu jest zaprezentowanie badań, które wskazują, w jaki sposób zmieniały się nawyki informacyjne użytkowników bibliotek akademickich związane z wyszukiwaniem, oraz przegląd rozwiązań obecnie stosowanych przez biblioteki wiodących uniwersytetów.
Przegląd badań
W badaniach z zakresu potrzeb użytkowników bibliotek akademickich istotność wpływu nawyków wyszukiwania wykształconych w czasie korzystania z Google jest podkreślana już od dłuższego czasu. Verne Newton i Kathryn Silberger (2007) analizowali nawyki studentów i stwierdzili, że przedkładają oni prostotę rozwiązań Google nad skomplikowane narzędzia wyszukiwania dostępne w bazach literatury naukowej. Wyższa jakość materiałów dostępnych w bazach nie miała wpływu na ich wybory. Łatwość użycia wyszukiwarki Google była dla nich decydująca przy wyborze narzędzi wyszukiwania. Karla S. Kitalong, Athena Hoeppner i Meg Scharf (2008) przeprowadzały złożone badania, włączając studentów, pracowników naukowych i bibliotekarzy w proces projektowania strony biblioteki akademickiej. Ich obserwacje również potwierdziły, że użytkownicy w pierwszej kolejności korzystają z wyszukiwania poprzez Google, a ich intuicyjne nawyki zostały wypracowane na podstawie tych doświadczeń. Siva Vaidhyanathan (2009) w swoim artykule The Googlization of universities zwracała uwagę na wynikłe z mechanizmów i narzędzi oferowanych przez Google zmiany wpływające na całokształt pracy na uczelniach wyższych. W kontekście wyszukiwania stwierdzała zdecydowanie, że bazy danych i kolekcje zawierające wysokiej jakości materiały naukowe nie przyciągną studentów, wręcz przeciwnie – wywołają ich zniechęcenie, chyba że zastosuje się w nich tak proste i przejrzyste narzędzia wyszukiwania, jak ma to miejsce w przypadku Google (Vaidhyanathan, 2009, s. 67). Podobnie badania przeprowadzone przez Robertę Woods (2010) kończyły się wnioskiem o nowym pokoleniu użytkowników ukształtowanych przez Google. Pokolenie to nie zaakceptuje rozwiązań bardziej skomplikowanych niż pojedyncze okno wyszukiwania wraz z pojedynczą, zintegrowaną z różnych źródeł listą wyników. Max Kemman, Martijn Kleppe i Stef Scagliola (2014), prowadząc badania wśród blisko trzystu belgijskich i holenderskich naukowców, wskazali, że naukowcy do większości kwerend naukowych używają Google (przyjmują oni, że wszystkie zbiory są przeszukiwalne przez tę wyszukiwarkę), a w sytuacji, kiedy korzystają z interfejsów baz danych zakładają, że okno wyszukiwania działa podobnie, jak ma to miejsce w przypadku Google i rzadko używają zaawansowanych opcji wyszukiwania (Kemman, Kleppe, Scagliola, 2014, s. 17).
Przywołane powyżej badania to tylko niektóre spośród tych, których konkluzja dotyczyła konieczności wprowadzenia narzędzi multiwyszukiwania integrujących zasoby biblioteczne (zob. też Gibson, Goddard, Gordon, 2009; Hill, 2007; Ponsford, vanDuinkerken, 2007; Sadeh, 2007). W literaturze możemy znaleźć opisy różnych rozwiązań technicznych, ich wad i zalet, np. opracowanych lokalnie na potrzeby danych uczelni Universal Search Solution (Woods, 2010) czy też produktów komercyjnych o szerokim zasięgu, jak np. Encore oferowany przez Innovative Interfaces, Primo Central od Ex Libris, Serials Solutions’ Summon, Intota, EBSCO Discovery Service, iDiscovery Solutions i inne (Breeding, 2015; Gross, Sheridan, 2011). Wśród powszechnie wskazywanych problemów takich rozwiązań są te związane z rzeczywistym przeszukiwaniem wszystkich zasobów posiadanych czy subskrybowanych przez bibliotekę. W roku 2007 Dennis Warren prowadził badania efektywności systemu LibXplore wśród zasobów Australian Academic and Research Library Network, które wykazały, że aż 38% subskrybowanych treści nie była przeszukiwana przy użyciu wyszukiwania zintegrowanego (Warren, 2007). Rozwiązania technologiczne szybko ewoluują i wyszukiwanie staje się coraz dokładniejsze, jednak należy pamiętać, że multiwyszukiwarki – rozwiązanie będące nakładką na odmienne rozwiązania stosowane w różnych bazach katalogach w sposób nieunikniony będą zubożały możliwości wyszukiwania.
Kolejnym problemem jest sposób prezentacji wyników: różnorodność kolekcji bibliotecznych – zasoby drukowane, elektroniczne, książki artykuły, linki do treści z innych źródeł niż biblioteczne – musi znaleźć swoje odzwierciedlenie w prezentacji wyników. I wreszcie największym wyzwaniem, z którym należy się zmierzyć przy projektowaniu tego rodzaju rozwiązań, jest brak wiedzy użytkowników. W szczególności studenci nie orientują się w możliwościach wyszukiwania, pojęcie „metawyszukiwarki” nic dla nich nie znaczy (Cervone, 2005), mylą się nawet na poziomie rozróżnia rezultatów pochodzących z katalogu OPAC od tych z subskrybowanych źródeł elektronicznych (Cockrell, Jayne, 2002). Badania prowadzone przez Troya Swansona i Jeremy’ego Greena (2011) pokazały, że studenci często używali wyszukiwarki zasobów do szukania informacji o godzinach otwarcia biblioteki, organizowanych wydarzeniach itd. W tej sytuacji widać, jak złożonym procesem jest zaprojektowanie przyjaznych, efektywnych narzędzi wyszukiwania. Rozwiązaniem wprowadzanym ostatnio przez uniwersytety amerykańskie (m.in. przez biblioteki Columbia University, Cornell University, Dartmouth College, North Carolina State University, Princeton University, Stanford University) jest stosowanie zintegrowanego wyszukiwania w wszystkich zasobach biblioteki, łącznie z informacjami udostępnianymi na stronie, oraz wyświetlanie ich w formacie tzw. bento-box. Jest to sposób graficznej kategoryzacji wyników wyszukiwania, nawiązujący wyglądem do japońskiego lunch-boksu (il. 2). Wyniki wyszukiwania są grupowane według głównych typów informacji: artykuły, nagrania, książki, czasopisma, informacje na stronie itd. Badania prowadzone wśród użytkowników wskazują na konieczność ciągłego udoskonalania tego rozwiązania, dostosowywania do zmieniających się zasobów i potrzeb użytkowników, ale też potwierdzają jego dużą efektywność (Lown, Sierra, Boyer, 2013).
Ilustracja 2. Rezultaty wyszukiwania w formacie tzw. bento-box na przykładzie
biblioteki Leiden University
Źródło: strona biblioteki Leiden University. https://www.library.universiteitleiden.nl/search?q=literacy (odczyt: 10.04.2017).
Odrębną kwestią, poza zintegrowanym bądź osobnym dla różnych zasobów sposobem wyszukiwania, pozostaje jeszcze decyzja, w jaki sposób umieścić narzędzia wyszukiwania na stronach biblioteki. Badania prowadzone wśród studentów (Mierzecka, Suminas, 2016), jak również pracowników naukowych (Mierzecka, Kisilowska, Suminas, 2016), potwierdzają, że jedną z głównych funkcji serwisów WWW bibliotek akademickich powinno być umożliwienie dostępu do zasobów. Studenci, którzy uczestniczyli w testach użyteczności takich stron jednoznacznie twierdzili, że chcieliby widzieć okno wyszukiwania umieszczone centralnie na stronie, a jego widoczność powinna być podkreślona rozwiązaniami graficznymi (Williams, Bonnell, Stoffel, 2009).
Zaprezentowane badania pokazują w klarowny sposób, jakie są oczekiwania użytkowników wobec bibliotek akademickich. Jednakże, jak dobrze opisał to Geoffrey Little (2012), można zauważyć dość dużą inercję bibliotek w stosunku do zmieniającego się otoczenia – często twórcy ich serwisów WWW pozostają przy układzie, który sprawdzał się pod koniec lat dziewięćdziesiątych (Little, 2012, s. 123). Jakie rozwiązania są stosowane w rzeczywistości przez biblioteki najlepszych uczelni na świecie? Celem niniejszego artykułu będzie odpowiedź na to pytanie, uzyskana poprzez analizę rozwiązań stosowanych obecnie przez biblioteki wiodących europejskich uniwersytetów znajdujących się wśród pierwszych stu pozycji tzw. listy szanghajskiej, z perspektywy przedstawionych powyżej oczekiwań użytkowników.
Metoda badawcza
Sprawdzenie rozwiązań wyszukiwania informacji stosowanych przez najlepsze uniwersytety zdecydowano się ograniczyć do uczelni europejskich. Taka perspektywa, ze względu na podobny system organizacji szkolnictwa wyższego, pozwoli na zarysowanie tła do refleksji, jakie rozwiązania najlepiej sprawdziłyby się w polskich warunkach. Do analizy porównawczej wybrano biblioteki uniwersytetów, które w ramach Academic Ranking of World Universities 2016 (popularnie: lista szanghajska) zajęły miejsce w pierwszej setce. W edycji 2016 takich uczelni było trzydzieści jeden. Dodatkowo w analizie zdecydowano dla porównania uwzględnić biblioteki dwóch polskich uczelni znajdujących się na liście (pozycje w piątej setce): Uniwersytetu Jagiellońskiego i Uniwersytetu Warszawskiego. Łącznie badaniem objęto trzydzieści trzy biblioteki akademickie. Przedmiotem analizy były narzędzia wyszukiwania stosowane przez biblioteki oraz sposób ich ekspozycji w serwisie WWW. Co jest istotne, badane były wyłącznie rozwiązania prezentowane na stronie startowej biblioteki, w zakres analizy nie wchodziły linki do zasobów, a wyłącznie bezpośrednie narzędzia wyszukiwania.
Na podstawie analizy stron bibliotek wyróżniono następujące typy narzędzi wyszukiwania i prezentacji wyników:
1. Bento-box – użytkownik ma do dyspozycji jedno okno wyszukiwania na stronie, nie określa żadnych dodatkowych warunków (jak rodzaj zbiorów, zawartość strony, typ dokumentu); wyniki prezentowane są w podziale graficznym ze względu na rodzaj informacji.
2. Okno wyszukiwania plus zakładki – użytkownik ma do dyspozycji jedno okno wyszukiwania na stronie, które podzielone jest na zakładki pozwalające na wyszukiwanie w określonych typach zasobów. Wśród tych rozwiązań wyróżniono następujące kategorie:
2.1. Zakładki wszystkie zbiory/serwis WWW – użytkownik ma do dyspozycji jedno okno wyszukiwania na stronie z zakładkami: a) przeszukiwanie wszystkich zbiorów bibliotecznych – nie określa żadnych dodatkowych warunków (jak rodzaj zbiorów, typ dokumentu); wyniki prezentowane są jako lista, którą można filtrować poprzez różne kategorie; b) przeszukiwanie treści serwisu WWW biblioteki.
2.2. Zakładki e-zbiory/katalog/serwis WWW – użytkownik ma do dyspozycji jedno okno wyszukiwania na stronie, z zakładkami: a) przeszukiwanie zbiorów elektronicznych; b) przeszukiwanie katalogu, c) przeszukiwanie treści serwisu WWW biblioteki.
2.3. Zakładki e-zbiory/katalog/serwis WWW/inne: użytkownik ma do dyspozycji jedno okno wyszukiwania na stronie, z zakładkami: a) przeszukiwanie zbiorów elektronicznych; b) przeszukiwanie katalogu, c) przeszukiwanie treści serwisu WWW biblioteki; d) inne zasoby.
3. Rozłączne: użytkownik ma do dyspozycji okna wyszukiwania, z których każde jest dedykowane przeszukiwaniu wśród zbiorów jednego typu:
3.1. Zbiory/serwis WWW – użytkownik ma do dyspozycji dwa okna wyszukiwania na stronie: a) przeszukiwanie wszystkich zbiorów bibliotecznych – nie określa żadnych dodatkowych warunków (jak rodzaj zbiorów, typ dokumentu); wyniki prezentowane są jako lista, którą można filtrować poprzez różne kategorie;
b) przeszukiwanie treści serwisu WWW biblioteki.
3.2. Rozłączne: katalog/e-zbiory/serwis WWW: a) przeszukiwanie katalogu; b) przeszukiwanie zbiorów elektronicznych; c) przeszukiwanie treści serwisu WWW biblioteki.
Przedstawiona klasyfikacja jest wynikiem weryfikacji rozwiązań istniejących na stronach bibliotek. W celu sprawdzenia, jakie zbiory będą przeszukiwane za pomocą dostępnych narzędzi, każdorazowo testowano je, wpisując dwie proste instrukcje: „literacy”, „opening hours” (w przypadku bibliotek francuskojęzycznych „l’alphabétisation”, „heures d’ouverture”, a niemieckich: „Alphabetisierung”, „Öffnungszeiten”).
Kolejnym badanym elementem był sposób ekspozycji narzędzi wyszukiwania na stronie. Ze względu na zróżnicowane rozwiązania graficzne bardzo trudno jest dokonać zobiektywizowanej oceny stopnia ekspozycji wyszukiwarki na stronie. Chcąc jednak ukazać, jak istotnym jest ona elementem wśród innych składowych witryny, przyjęto następującą metodę, która pozwoli zarysować tendencje wśród najlepszych bibliotek europejskich. Przedmiotem oceny był obszar przestrzeni na stronie przeznaczony na zaprezentowanie narzędzi wyszukiwania. Przestrzeń mierzona była w procentach w stosunku do całości ekranu. Co jest istotne, jeśli okno wyszukiwania było prezentowane na tle, które w jednoznaczny sposób służyło eksponowaniu narzędzi wyszukiwania, cały ten obszar (okno plus tło) zaliczane było jak przestrzeń ekspozycji narzędzi wyszukiwania (il. 3). Jeśli tło, na którym prezentowane były narzędzia wyszukiwania, nie służyło w wyraźny sposób zwróceniu na nie uwagi, jako obszar ekspozycji liczono wyłącznie miejsce, które zajmowały (il. 4).
Ilustracja 3. Obszar ekspozycji narzędzi wyszukiwania na przykładzie biblioteki uniwersyteckiej University of Cambridge
Źródło: opracowanie własne na podstawie: http://www.lib.cam.ac.uk/camlibraries/index.php
(odczyt: 10.04.2017).
Ilustracja 4. Obszar ekspozycji narzędzi wyszukiwania na przykładzie biblioteki uniwersyteckiej University of Oxford
Źródło: opracowanie własne na podstawie: http://www.bodleian.ox.ac.uk/ (odczyt: 10.04.2017).
Można mieć zastrzeżenia co do precyzji tego sposobu mierzenia ekspozycji narzędzi wyszukiwania na stronie. Z punktu widzenia celu artykułu jest on jednak wystarczający, ponieważ ma służyć zarysowaniu ogólnych tendencji, w jakim stopniu elementy służące wyszukiwaniu są istotną częścią strony.
Wyniki badań
Szczegółowe wyniki analizy zaprezentowane są w tabeli 1. Wśród analizowanych bibliotek zdecydowanie przeważa rozwiązanie 3.1 (zob. wcześniej przedstawiona lista typów narzędzi wyszukiwania) – użytkownik ma do dyspozycji dwa okna wyszukiwania. Za pomocą pierwszego przeszukuje całość zbiorów bibliotecznych –ograniczenia co do przeszukiwanych zasobów pojawiają się dopiero na poziomie listy wyników. Drugie okno, zazwyczaj umieszczone na górze ekranu, służy do przeszukiwania zasobów bibliotecznego serwisu WWW. Takie rozwiązanie przyjęło aż dziewiętnaście spośród badanych bibliotek.
Dziewięć bibliotek zdecydowało się udostępnić użytkownikom okno wyszukiwania z zakładkami, które już na poziomie ekranu głównego pozwalały ograniczyć rodzaj przeszukiwanych zasobów, jednak w przypadku trzech z nich jest to podział podobny jak najpopularniejsze rozwiązanie: wybór pomiędzy treściami na stronie a wszystkimi kolekcjami biblioteki (typ 2.1). Z punktu widzenia użytkownika jest to rozwiązanie podobne, różniące się tylko formą graficzną.
Tabela 1. Wyniki analizy narzędzi wyszukiwania i ich ekspozycji na stronach internetowych bibliotek akademickich wybranych uniwersytetów
Numer w rankingu
Nazwa uniwersytetu
Narzędzia wyszukania
Zakładki
Rozłączne
Bento- box
Zakładki wszystkie zbiory/strona
Zakładki e-zbiory/katalog/strona
Zakładki e-zbiory/katalog/strona/ inne
Zbiory
e-zbiory
Katalog
Strona
Żadne
Ekspozycja w %
4
University of Cambrid
ge
x
x
49
7
University of Oxford
x
4
17
University College Lon
don
x
x
13
19
Swiss Federal Institute of Technology Zurich
x
4
22
The Imperial College of Science, Technology and Medicine
x
x
12
30
University of Copenha
gen
x
x
3
35
The University of Man
chester
x
x
38
39
Pierre and Marie Curie University – Paris 6
x
x
15
41
The University of Edin
burgh
x
x
21
44
Karolinska Institute
x
x
14
46
University of Paris-Sud (Paris 11)
x
x
x
29
47
Heidelberg University
x
1
47
Technical University Munich
x
0
50
King’s College London
x
x
4
51
University of Munich
x
3
53
University of Geneva
x
x
23
54
University of Zurich
x
x
6
56
University of Helsinki
x
x
11
57
University of Bristol
x
x
11
60
Uppsala University
x
28
62
Ghent University
x
66
65
Aarhus University
x
x
17
65
Utrecht University
x
1
67
University of Oslo
x
x
28
72
University of Groningen
x
x
34
81
Stockholm University
x
x
26
87
Ecole Normale Superie
ure – Paris
x
8
87
Moscow State Univer
sity
x
x
11
92
Swiss Federal Institute of Technology Lausanne
x
x
5
93
KU Leuven
x
x
17
93
Leiden University
x
43
Uniwersytet Jagielloński
x
8
Uniwersytet Warszawski
x
9
Źródło: opracowanie własne.
Jeśli chodzi o pozostałe rozwiązania, to biblioteka Swiss Federal Institute of Technology Zurich proponuje wybór pomiędzy kategoriami: „książki i artykuły”, „artykuły”, „serwis WWW” – jest to klarowny podział, który nie powinien budzić wątpliwości czytelników. Nieco inaczej rzecz ma się ze zbiorami Pierre and Marie Curie University – Paris 6. Tutaj już użytkownik nieobeznany dobrze z terminologią przyjętą w bibliotece napotka problemy, ponieważ kategorie wyboru przedstawiają się następująco (wersja oryginalna): „SUper”, „Catalogue” (katalog), „Ressources en ligne” (e-zbiory), „HAL-UPMC”, „Guides & Tutoriels” (przewodniki i instrukcje). Również Uniwersytet Moskiewski daje do wyboru wiele opcji, takich jak katalog elektroniczny, katalog alfabetyczny, katalog kartkowy, wśród których można wybrać jeszcze kategorie szczegółowe. Rozwiązanie polegające na oferowaniu użytkownikowi wielu różnych zakładek przyjęły również dołączone do tej analizy biblioteki polskich uniwersytetów. Biblioteka Jagiellońska każe czytelnikowi wybierać spośród takich kategorii, jak „katalog komputerowy”, „JBC”, „katalog podstawowy”, „multiwyszukiwarka”, e-zasoby A-Z”. W przypadku Biblioteki Uniwersytetu Warszawskiego (BUW) jest to wybór pomiędzy „multiwyszukiwarką”, „katalogiem”, „e-czasopismami”, „e-książkami” i „bazami”. Należy jednak zauważyć, że w tym przypadku wybranie zakładki „katalog”, e”-książki”, czy „bazy” przenosi użytkownika na stronę zasobów, a nie pozwala na wyszukanie z poziomu strony głównej.
Pozostałe rozwiązania, które się pojawiły, to trzy odrębne okna wyszukiwania, osobno dla katalogu OPAC, e-zbiorów i zasobów serwisu WWW zastosowane przez bibliotekę University of Paris-Sud (Paris 11). Ecole Normale Superieure – Paris na swojej stronie głównej oferuje jedynie narzędzia do przeszukiwania katalogu OPAC, a Technical University Munich na stronie startowej nie ma żadnego narzędzia wyszukiwania. Natomiast dwie biblioteki – Uppsala University oraz Leiden University – przyjęły opisane wcześniej rozwiązanie bento-box.
Jeśli chodzi o miejsce na stronie przeznaczone na narzędzia wyszukiwania, wyniki prezentują się następująco. Ghent University jest w tym zakresie liderem, ponieważ aż 66% miejsca na stronie startowej poświęcono tu na ekspozycję narzędzi wyszukiwania. Biblioteki Leiden University oraz University of Cambridge również traktują ten element strony jako priorytetowy, przeznaczając na niego ponad 45% miejsca. W przypadku pozostałych bibliotek dwie przeznaczyły na ekspozycję narzędzi wyszukiwania około 35% miejsca na stronie, sześć w granicach 29-20%, dziewięć 19-10%, a trzynaście mniej niż 10%.
Dyskusja i wnioski
Podsumowując te obserwacje, można stwierdzić, że rozwiązania przygotowywane w większości bibliotek wiodących uniwersytetów europejskich są dostosowane do użytkowników, którzy preferują rozwiązania jak najprostsze: wpisanie frazy i wybór najtrafniejszej pozycji z listy wyników, czyli sposób postępowania ukształtowany przez Google. Wyższość rozwiązań oferowanych przez biblioteki przejawia się w tym, że na następnym etapie użytkownik ma możliwość dokonania precyzyjnej selekcji źródeł, oczywiście w zależności od tego, na ile posiadana przez niego wiedza na to pozwala. Wydaje się, że tego rodzaju rozwiązania mogą być postrzegane przez użytkowników jako bardziej przyjazne – nie onieśmielają osób o małej wiedzy, jak również nie ograniczają tych, którzy są świadomi możliwości narzędzi wyszukiwania. Sarah Williams, Angela Bonnell i Bruce Stoffel (2009) byli zdziwieni rezultatem swoich badań, z których wynikało, że ci sami respondenci często korzystali zarówno z uproszczonego interfejsu wyszukiwania zintegrowanego, jak i zaawansowanych możliwości baz. Jednak krótka refleksja nad tym, jak zróżnicowane zadania stają przez użytkownikami bibliotek akademickich, m.in. przygotowanie się na zajęcia, praca semestralna, dyplomowa (studenci), przygotowanie zajęć, wystąpień na konferencje, pisanie artykułów, książek, grantów (pracownicy naukowi), sprawia, że oczywiste jest, że w zależności od celów użytkownicy będą sięgali do różnych narzędzi wyszukiwania.
Rozwiązanie omawiane jako najbardziej zaawansowane – bento-box style – nie przyjęło się jeszcze powszechnie wśród badanych bibliotek. Prawdopodobnie potrzeba jeszcze trochę czasu i badań, które pokażą wyraźnie, że takie rozwiązanie jest zdecydowanie korzystniejsze dla użytkowników (jeśli tak jest), aby biblioteki decydowały się na kosztowne finansowo zmiany, jakim jest wprowadzenie nowego systemu wyszukiwania.
Wśród analizowanych rozwiązań znalazło się kilka bibliotek, które stawiają na ekspozycję wszystkich możliwości wyszukiwania. Zapewne użytkownik rzeczywiście korzystający z zasobów biblioteki będzie potrafił zrozumieć i wybrać: czy powinien szukać korzystając z opcji „SUper”, „Catalogue” albo „HAL-UPMC” (Pierre and Marie Curie University – Paris 6), czy przeszukiwać „katalog komputerowy”, „JBC” czy „katalog podstawowy” (Biblioteka Jagiellońska). W świetle przedstawionej wcześniej literatury to rozwiązanie nie jest korzystne i przyjazne dla użytkowników i może zniechęcać do korzystania z serwisu WWW. To podejście zakłada, że użytkownik posiada wiedzę o kolekcjach bibliotecznych, a co za tym idzie, wyszukiwanie w tych zasobach staje się rozwiązaniem elitarnym w stosunku do wyszukiwania w Google. Tymczasem rozwijane narzędzia Google (np. Google Scholar) w coraz większym stopniu pozwalają na docieranie do wartościowych źródeł literatury, co może powodować, że nawet tak niewielkie wymagania stawiane przez biblioteki mogą spowodować znaczny spadek konkurencyjności oferowanych przez nie źródeł. Polskie biblioteki akademickie powinny brać to pod uwagę.
Jeśli chodzi o sposób ekspozycji warto podkreślić, że zaprezentowane badanie miało na celu jedynie nakreślić tendencje istniejące wśród bibliotek i rzeczywiście daje podstawę do zarysowania sytuacji w tym zakresie. Wśród badanych bibliotek dwadzieścia dwie spośród analizowanych trzydziestu trzech przeznacza mniej niż 20% miejsca na stronie na narzędzia wyszukiwania. Widać więc wyraźnie, że w większości placówek bibliotekarze nie zgadzają się na postrzeganie bibliotecznego serwisu WWW przede wszystkim jako drogi dostępu do źródeł informacji. W badaniach prowadzonych wśród studentów i pracowników naukowych wykazano, że poza informacjami związanymi z korzystaniem ze zbiorów, cenią oni również informacje na temat kulturalnej działalności bibliotek (Mierzecka, Kisilowska, Suminas, 2016; Mierzecka, Suminas, 2016). Przedmiotem dyskusji więc, jak również dalszych badań, powinna być kwestia: jakie inne treści na stronie należałoby eksponować, aby odpowiadać na potrzeby użytkowników.
Podsumowanie
Roy Tennant w 2001 roku napisał: “Only librarians like to search; everyone else likes to find” (Tennant, 2001, s. 38). Nie sposób nie zgodzić się z tym stwierdzeniem. Analiza rozwiązań stosowanych w bibliotekach wiodących europejskich uniwersytetów pozwala na optymistyczne stwierdzenie, że mamy do czynienia z podejściem, w którego centrum znajdują się rzeczywiste potrzeby użytkowników. W znakomitej większości biblioteki starają się dostosować do rzeczywistości, która w dużym stopniu jest obecnie kształtowana przez dynamiczne zmiany związane z rozwojem technologii informacyjno-komunikacyjnych. Strony internetowe bibliotek akademickich, ich przemiany, w dużej mierze odzwierciedlają również szerszą dyskusję na temat roli i funkcji, które powinny pełnić biblioteki (Blummer, 2007; Griffis, Salisbury, 2014; Mierzecka, Suminas, 2016; Sapa, 2005). Widoczne zwrócenie się w stronę rozwiązań opartych na badaniach zachowań informacyjnych użytkowników pozwala mieć nadzieję, że konkurencyjność usług i zasobów bibliotecznych pozostanie na wysokim poziomie. Jednakże przedstawione w artykule obserwacje są próbą dokonania diagnozy sytuacji bibliotek w szerokiej skali, a dla powodzenia działań, każda z placówek powinna prowadzić lokalne badania zachowań użytkowników i dostosowywać do nich swoje usługi i ofertę.
Bibliografia
1. Blummer, Barbara. (2007). A literature review of academic library web page studies. Journal of Web Librarianship, vol. 1, issue 1, pp. 45-64.
2. Breeding, Marshall (2015). Library systems report 2015: operationalizing innovation. American Libraries. May 1st. https://americanlibrariesmagazine.org/2015/05/01/library-systems-report/ (odczyt: 08.08.2017).
3. Cervone, Frank (2005). What we’ve learned from doing usability testing on openURL resolvers and federated search engines. Computers in Libraries, vol. 25, issue 9, pp. 10–14.
4. Cockrell, Barbara J.; Jayne, Elaine A. (2002). How do I find an article? Insights from a web usability study. The Journal of Academic Librarianship, vol. 28, issue 3, pp. 122-132. doi:http://doi.org/10.1016/S0099-1333(02)00279-3.
5. Gibson, Ian; Goddard, Lisa; Gordon, Shannon (2009). One box to search them all: implementing federated search at an academic library. Library Hi Tech, vol. 27, issue 1, pp. 118-133. doi:10.1108/07378830910942973
6. Griffis, Matthew R.; Salisbury, Preston (2014). Academic library mission statements, web sites, and communicating purpose. Journal of Academic Librarianship, vol. 40, issue 6, pp. 592-596.
7. Gross, Julia; Sheridan, Lutie (2011). Web scale discovery: the user experience. New Library World, vol. 112, issue 5/6, pp. 236-247.
doi:http://dx.doi.org/10.1108/03074801111136275.
8. Hill, Barcley (2007). Federated search at the Intel Library. Information Outlook, vol. 11, issue 9, pp. 11‐23.
9. Kemman, Max; Kleppe, Martijn; Scagliola, Stef (2014). Just Google it: digital research practices of humanities scholars. In: Clare Mills, Michael Pidd, Esther Ward eds. Proceedings of the Digital Humanities Congress 2012. Studies in the Digital Humanities. Sheffield: HRI Online Publications.
https://www.hrionline.ac.uk/openbook/chapter/dhc2012-kemman (odczyt: 08.08.2017).
10. Kitalong, Karla Saari; Hoeppner, Athena; Scharf, Meg (2008). Making sense of an academic library web site: toward a more usable interface for university researchers. Journal of Web Librarianship, vol. 2, issue 2-3, pp. 177-204. doi:10.1080/19322900802205742.
11. Little, Geoffrey (2012). Where are you going, where have you been? The evolution of the academic library web site. The Journal of Academic Librarianship, vol. 38, issue 2, pp. 123-125. doi:http://dx.doi.org/10.1016/j.acalib.2012.02.005.
12. Lown, Cory; Sierra, Tito; Boyer, Josh (2013). How users search the library from a single search box. College & Research Libraries, vol. 74, issue 3, pp. 227-241.
13. Mierzecka, Anna; Kisilowska, Małgorzata; Suminas, Andrius (ant. publ. date 2017). Researchers’ expectations regarding the online presence of academic libraries. College & Research Libraries (in print). Preprint:
http://crl.acrl.org/index.php/crl/article/view/16621 (odczyt: 15.06.2017).
14. Mierzecka, Anna; Suminas, Andrius (2016). Academic library website functions in the context of users’ information needs. Journal of Librarianship and Information Science, (in print, first published online on August 24, 2016), 1-11. Preprint http://lis.sagepub.com/content/early/2016/08/24/0961000616664401.abstract. doi: 10.1177/0961000616664401.
15. Newton, Verne W.; Silberger, Kathryn (2007). Simplifying complexity through a single federated search box. Online, vol. 31, issue 4, pp. 19-21.
16. Ponsford, Bennett C.; vanDuinkerken, Wyoma (2007). User expectations in the time of Google: usability testing of federated searching. Internet Reference Services Quarterly, vol. 12, issue 1-2, pp. 159-178. doi:10.1300/J136v12n01_08.
17. Sadeh, Tamar (2007). Transforming the metasearch concept into a friendly user experience. Internet Reference Services Quarterly, vol. 12, issue 1-2, pp. 1-25. doi:10.1300/J136v12n01_01.
18. Sapa, Remigiusz (2005). The roles of American and Polish academic library web sites: a comparative study. Libri: International Journal of Libraries & Information Services, vol. 55, issue 1, pp. 1-20.
19. Sullivan, Danny (2016). Google now handles at least 2 trillion searches per year. Search Engine Land. http://searchengineland.com/google-now-handles-2-999-trillion-searches-per-year-250247 (odczyt: 08.08.2017).
20. Swanson, Troy A.; Green, Jeremy (2011). Why we are not Google: lessons from a library web site usability study. The Journal of Academic Librarianship, vol. 37, issue 3, pp. 222-229. doi:http://dx.doi.org/10.1016/j.acalib.2011.02.014.
21. Tennant, Roy (2001). Avoiding unintended consequences. Library Journal, vol. 126, issue 1, pp. 38.
22. Vaidhyanathan, Siva (2009). The googlization of universities. In: The NEA 2009 Almanac of Higher Education, pp. 65-74.
http://www.nea.org/assets/img/PubAlmanac/ALM_09_06.pdf (odczyt: 08.08.2017)
23. Warren, Dennis (2007). Lost in translation: the reality of federated searching. Australian Academic & Research Libraries, vol. 38, issue 4, pp. 258-269. doi:10.1080/00048623.2007.10721308.
24. Williams, Sarah C.; Bonnell, Angela; Stoffel, Bruce (2009). Student feedback on federated search use, satisfaction, and web presence: qualitative findings of focus groups. Reference & User Services Quarterly, vol. 49, no 2, pp. 131-139.
25. Woods, Roberta (2010). From federated search to the universal search solution. Serials Librarian, vol. 58, issue 1-4, pp. 141-148.
Marcin Roszkowski
Katedra Informatologii
Wydział Dziennikarstwa, Informacji i Bibliologii, Uniwersytet Warszawski
Diagnostyka metadanych w kolekcjach cyfrowych
Metadata diagnostics for digital collections
Słowa kluczowe: diagnostyka metadanych, jakość metadanych, profilowanie danych.
Keywords: data profiling, metadata diagnostics, metadata quality.
Abstrakt
Celem badań jest identyfikacja i analiza kryteriów oceny jakości metadanych w kolekcjach cyfrowych. Na płaszczyźnie metodologicznej artykuł operuje analizą i krytyką piśmiennictwa, której głównym przedmiotem jest problem jakości metadanych z perspektywy informatologicznej. Na podstawie analizy reprezentatywnej literatury zidentyfikowano trzy komplementarne koncepcje oceny jakości metadanych oraz omówiono trzy strategie związane z diagnostyką metadanych. Przeprowadzono również eksperyment badawczy, w którym dokonano diagnostyki metadanych dla kolekcji z Medioteki – biblioteki cyfrowej Wydziału Dziennikarstwa, Informacji i Bibliologii Uniwersytetu Warszawskiego.
Abstract
The main purpose of this paper is to investigate the frameworks for metadata quality assessment for digital collections. The study uses a critical literature review from the field of library and information science which was relevant to the subject as a methodological ground. The study presents three complementary approaches to the concept of metadata quality and three selected strategies for metadata quality assessment. The paper also presents the results of a case study on metadata diagnostics in Medioteka – the digital library of The Faculty of Journalism, Information and Book Studies of the University of Warsaw.
Wprowadzenie
Problem z interpretacją pojęcia jakości metadanych jest bezpośrednio związany z różnym definiowaniem przedmiotu takiej oceny jakości, czyli metadanych. Mamy więc przynajmniej dwie perspektywy poznawcze, które w istotny sposób mogą determinować rozważania w kontekście oceny jakości metadanych. W pierwszej, metadane określane są mianem „danych o danych”, co z poznawczego punktu widzenia niewiele wnosi do interpretacji tego pojęcia. Jane Greenberg (2005, s. 20) twierdzi, że metadane w takim ujęciu odnoszą się do atrybutów danych, które opisują, zapewniają kontekst oraz wskazują na jakość i dokumentują cechy innych obiektów. W drugim ujęciu, metadane często kojarzone są z pojęciem metainformacji, które jest jednym z głównych przedmiotów badań informatologii (Bojar red., 2002, s. 153). W tej perspektywie metadane są postrzegane w kontekście zastosowania specjalnych języków kodowania metainformacji w postaci języków informacyjno-wyszukiwawych, których celem jest zapewnienie środków i metod reprezentacji informacji do celów wyszukiwawczych. Mamy więc do czynienia z koniecznością rozróżnienia na metadane jako dane reprezentujące określone cechy zasobów informacyjnych oraz metadane jako pewne struktury konceptualne zapewniające semantyczną płaszczyznę procesu reprezentacji informacji. W drugim ujęciu mowa jest o schematach metadanych, w pierwszym o wartościach danych odwzorowywanych na potrzeby katalogowania w kontekście poszczególnych elementów ze schematu metadanych.
Jakość metadanych rozumiana w kontekście platońskiego „pewnego stopnia doskonałości” może więc być przedmiotem badań zarówno w odniesieniu do jakości danych, jak i jakości schematów metadanych. To co łączy te dwa podejścia, to perspektywa reprezentacji informacji, która w odniesieniu do kolekcji zasobów informacji jest celowym działaniem zdeterminowanym przez cele systemów informacyjnych przetwarzających metadane oraz kontekst użycia samych zasobów informacyjnych.
Jakość metadanych jest rozumiana jako jeden z elementów w modelu systemu informacyjnego, który ma zapewniać realizację jego wymogów funkcjonalnych (Ochoa, 2014, s. 64). Jest to pragmatyczne ujęcie problemu, w którym zagadnienie to jest lokowane w kontekście sprawnego funkcjonowania systemu.
Celem artykułu jest identyfikacja kryteriów oceny jakości metadanych w rozumianych jako ustrukturyzowane dane reprezentujące określone atrybuty zasobów informacyjnych. Kontekstem rozważań jest reprezentacja informacji w bibliotekach i repozytoriach cyfrowych, chociaż przedstawione wyniki badań mają zastosowanie również w szerszej perspektywie – zasobów dziedzictwa kultury i nauki. Na płaszczyźnie metodologicznej artykuł operuje analizą i krytyką piśmiennictwa, której głównym przedmiotem jest problem jakości metadanych z perspektywy informatologicznej.
Artykuł składa się z trzech części. W pierwszej kontekstem rozważań są podstawowe wymogi funkcjonalne systemów przetwarzających metadane bibliograficzne, w odniesieniu do których przedstawiono typologię i funkcje metadanych. Druga część artykułu zawiera przegląd wybranych koncepcji oceny jakości metadanych oraz próby rozwiązania problemu diagnostyki metadanych w kolekcjach cyfrowych w postaci omówienia trzech strategii. W trzeciej części przedstawiono założenia i wyniki badań w zakresie diagnostyki metadanych w Mediotece – cyfrowej bibliotece Wydziału Dziennikarstwa, Informacji i Bibliologii Uniwersytetu Warszawskiego (http://medioteka.uw.edu.pl).
Problem oceny jakości metadanych jest szeroko komentowany w piśmiennictwie naukowym z obszaru informatologii. Obok wyników badań szczegółowych istnieje kilka publikacji, których głównym celem było opracowanie stanu badań na ten temat. Jedną z pierwszych prób uporządkowania tego problemu jest praca Thomasa R. Bruce’a i Diane Hillmann (2004), w której autorzy na podstawie analizy piśmiennictwa opracowali własną koncepcję oceny jakości metadanych, która szerzej zostanie omówiona w dalszej części pracy. Podobne lecz zaktualizowane opracowanie opublikował Xavier Ochoa (2014) na potrzeby podręcznika pt. Handbook of metadata, semantics and ontologies. Warte odnotowania są również dwie prace poświęcone temu zagadnieniu w kontekście bibliotek i repozytoriów cyfrowych (Park, 2009; Tani, Candela, Castelli, 2013), w których autorzy zmierzyli się z próbą odniesienia tego problemu do specyfiki tej klasy systemów informacyjnych.
Wymogi funkcjonalne metadanych bibliograficznych
Podstawowe wymogi funkcjonalne dla systemów informacyjnych operujących metadanymi dla jednostek bibliograficznych są zawarte w modelu FRBR, który jest konceptualizacją uniwersum bibliograficznego i wynikiem konsensusu środowiska bibliotekarskiego. Model FRBR wyznacza ontologiczne ramy interpretacji elementarnych jednostek opisu w kontekście katalogów bibliotecznych, ale również kolekcji cyfrowych dokumentów. Podstawowe wymogi funkcjonalne dla tego typu systemów informacyjnych są pochodną funkcji katalogu bibliotecznego, które przedstawił Charles A. Cutter (1904) na początku XX wieku. FRBR (Functional requirements, 2009) interpretuje je w kontekście zadań realizowanych przez użytkowników informacji podczas interakcji z systemem informacyjnym, do których należą:
1.
Wykorzystanie metadanych do odnalezienia materiałów, które odpowiadają kryteriom postawionym w zapytaniu przez użytkownika.
2.
Wykorzystanie metadanych do identyfikacji jednostki (np. potwierdzenie, że dokument opisany w rekordzie odpowiada dokumentowi odnalezionemu przez użytkownika lub odróżnienie dwóch tekstów lub nagrań o tym samym tytule).
3.
Wykorzystanie metadanych do wyboru jednostki, która spełnia oczekiwania użytkownika (np. wybór tekstu w języku zrozumiałym dla użytkownika lub wybór wersji oprogramowania, która jest kompatybilna ze sprzętem i systemem operacyjnym dostępnym dla użytkownika).
4.
Wykorzystanie metadanych w celu nabycia lub uzyskania dostępu do opisywanej jednostki (np. złożenie zamówienia na jednostkę, złożenie zamówienia w celu wypożyczenia egzemplarza książki z kolekcji bibliotecznej lub uzyskanie dostępu do czasopisma elektronicznego przechowywanego na zdalnym komputerze).
Model FRBR operuje wysokim poziomem abstrakcji, ale wskazane cztery podstawowe zadania reprezentują kluczowe formy interakcji użytkownika z systemem informacyjnym zawierającym metadane dla dokumentów. Propozycja rozszerzenia tego zestawu zadań została przedstawiona w 2016 r. w raporcie pt. FRBR-Model referencyjny dla bibliotek (Riva, Bœuf, Žumer, 2016) będącym wynikiem prac grupy roboczej działającej przy IFLA, której celem jest rewizja i wyższy poziom konkretyzacji modelu FRBR. Według tego raportu piątym zadaniem jest eksploracja, czyli umożliwienie użytkownikowi wykorzystania jawnie prezentowanych relacji między elementami kolekcji w celu kontekstowego poszukiwania informacji lub odkrywania potencjału informacyjnego kolekcji z wykorzystaniem eksplorującego modelu wyszukiwania informacji (zob. np. White, Roth, 2009), np. za pomocą techniki przeglądania (browsing).
Typologia i funkcje metadanych
W piśmiennictwie z zakresu metadanych istnieje wiele prób usystematyzowania rodzajów metadanych (zob. np. przegląd badań: Greenberg, 2005), w których przyjmuje się zarówno kryteria funkcjonalne, jak i odnoszące się do rodzaju odwzorowywanych informacji. Największy konsensus zdobyła jednak typologia, w której wyróżnia się trzy podstawowe typy metadanych (Riley, 2004, s. 10-11):
1.
Metadane opisowe – podstawowa forma reprezentacji informacji o formie i treści dokumentu.
2.
Metadane strukturalne – odwzorowują informacje o strukturze złożonych zasobów informacji, np. relacja artykułu z czasopisma do zeszytu, w którym się ukazał; relacje między elementami tworzącymi dokument multimedialny; relacje między elementami publikacji współwydanej.
3.
Metadane administracyjne: zawierają informacje pomocne w zarządzaniu kolekcją.
a) metadane techniczne: zawierają informacje dotyczące technicznych aspektów rekordu metadanych oraz formatem cyfrowej wersji dokumentu,
b) metadane związane z przechowywaniem zasobu – zawierają informacje niezbędne do zarządzania procesem przechowywania i archiwizacji,
c) metadane związane z prawami do zasobu – zawierają informacje związane z prawnym statusem udostępnianego dokumentu.
Jane Greenberg (2005), dokonując krytycznej oceny typologii metadanych w kolekcjach cyfrowych, zidentyfikowała również podstawowe funkcje, które jej zdaniem są realizowane przez ten typ narzędzi reprezentacji informacji w kolekcjach cyfrowych. Autorka ta twierdzi (2005, s. 21), że metadane funkcjonujące w ramach systemu informacyjnego powinny umożliwiać:
1.
Wyszukiwanie i eksplorację informacji.
2.
Zarządzanie zasobami informacyjnymi.
3.
Wykorzystanie/użycie lub uzyskanie dostępu do zasobów informacyjnych.
4.
Dostęp do zasobów informacji przeznaczonych dla określonej grupy użytkowników docelowych.
5.
Ocenę wiarygodności i pochodzenia zasobów informacyjnych.
6.
Ustanawianie relacji między powiązanymi zasobami informacyjnymi w kolekcji.
7.
Dostęp do informacji o wymogach technicznych związanych z wykorzystaniem danego zasobu informacyjnego.
W takiej perspektywie, ocena jakości metadanych dla zasobów informacyjnych powinna uwzględniać z jednej strony możliwość i sposób realizacji ich zakładanych funkcji, a z drugiej, w szerszej perspektywie, zgodność z wymogami funkcjonalnymi systemów informacyjnych, w ramach których funkcjonują i które wyznacza na wysokim poziomie abstrakcji model FRBR.
Jakość metadanych – przegląd wybranych koncepcji
Problem oceny jakości metadanych przy takich założeniach wstępnych wydaje się więc być zdeterminowany funkcjonalnie lub pragmatycznie. W tej części pracy zostaną przedstawione trzy, zdaniem autora istotne, koncepcje oceny jakości metadanych, w których założenia początkowe są zbieżne, ale punkty wyjścia do rozważań nieco odmienne. Pierwsza koncepcja osadzona jest w perspektywie bazodanowej i traktuje metadane jako ustrukturyzowany zbiór danych, który niezależnie od specyfiki fragmentu rzeczywistości, który opisuje, poddaje się obiektywnym kryteriom oceny jakości, ale przede wszystkim poprawności. Druga koncepcja wyrosła z perspektywy informatologicznej i należy do najczęściej przywoływanych prób oceny jakości metadanych w piśmiennictwie z zakresu nauki o informacji. Trzecia koncepcja jest próbą wieloaspektowego spojrzenia na problem oceny jakości informacji, ze szczególnym uwzględnieniem metainformacji, i jest najbardziej kompleksową propozycją poznania i rozwiązania tego problemu w obszarze nauki o informacji.
Koncepcja jakości danych Jacka Olsona
Koncepcja jakości danych Olsona została opublikowana jako jedna z pierwszych prób monograficznego ujęcia problemu jakości danych z naciskiem na ich poprawności. W swojej książce pt. Data quality: the accuracy dimension (Olson, 2003) autor ten proponuje również kompleksową diagnostykę poprawności danych, która szerzej została omówiona w dalszej części artykułu. Olson definiuje jakości danych jako warunek konieczny do realizacji zamierzonego celu ich użycia (fitness for purpose). Twierdzi również, że jakość danych zależy w równiej mierze od zakładanego zakresu ich wykorzystania jak również od ich cech wewnętrznych (Olson, 2003, s. 24). Model oceny jakości danych Olsona determinowany zdolnością do realizacji ich zamierzonego użycia zakłada sześć kryteriów oceny:
−
poprawność (accuracy),
−
aktualność (timeleness),
−
adekwatność (relevancy),
−
kompletność (completeness),
−
zrozumiałość (understood),
−
wiarygodność (trusted).
Poprawność danych rozumiana jest tutaj w odniesieniu sposobu ich reprezentacji oraz przy założeniu, że cecha ta odnosi się zarówno to formy oraz zawartości (Olson, 2003, s. 29). Przez dane niepoprawne Olson rozumie dane, w których zawartość elementów danych jest wyrażona w sposób błędny lub niespójny, oraz sytuację, w której ich treść nie odnosi się do znaczenia danego elementu danych. Mamy więc do czynienia z syntaktycznym i semantycznym punktem widzenia na poprawność danych oraz uwzględnieniem elementu ich spójności. Aktualność danych rozumiana jest w kontekście reprezentacji informacji o obiekcie, gdzie istotnym elementem może być jego zmienność w czasie. Adekwatność danych odnosi się do stopnia szczegółowości, w jakim odwzorowują fragment rzeczywistości. Przy założeniu, że każdy obiekt rzeczywistości może mieć swoją reprezentację w postaci zestawu elementów danych (np. rekord w bazie danych), adekwatność danych odnosi się do poziomu ich strukturyzacji i odwzorowania cech uznanych za relewantne w kontekście realizacji wymogów funkcjonalnych systemu informacyjnego, w którym funkcjonują. Kompletność danych interpretowana jest w ujęciu ilościowym w perspektywie całej bazy danych, gdzie przedmiotem analiz jest obecność w zbiorze danych elementów składających się na rekord opisujący dany obiekt lub proces. Zrozumiałość danych odnosi się do kwestii związanych z ich interpretacją oraz do przyjętych konwencji związanych z kodowaniem wartości danych. Wiarygodność danych Olson rozumie zarówno w kontekście identyfikacji i oceny źródła pochodzenia danych, jak również sprawności mechanizmów zaimplementowanych w systemie zarządzania bazą danych, który wykonuje na niej operacje.
Według Olsona przeprowadzenie procesu oceny jakości danych musi być poprzedzone opracowaniem szczegółowej specyfikacji ich zamierzonego użycia z uwzględnieniem kontekstu ich funkcjonowania, czyli wymogów funkcjonalnych systemu informacyjnego (Olson, 2003, s. 27).
Koncepcja jakości metadanych Bruce’a i Hillmann
Problem badania jakości metadanych był przedmiotem wielu prac z obszaru nauki o informacji i bibliologii. Jedną z najczęściej przywoływanych koncepcji*1i jednocześnie
*1Publikacja ta jest na pierwszym miejscu w rezultatach wyszukiwania w Google Scholar na temat jakości metadanych (ang. metadata quality) z liczbą 215 cytowań.
jednym z pierwszych tak kompleksowych ujęć jest publikacja Bruce’a i Hillmann (2004). Punktem wyjścia autorów była perspektywa funkcjonalna (gotowość do celowego użycia – fitness for purpose), którą wcześniej przywołano w odniesieniu do koncepcji Olsona, skonfrontowana z wymogami funkcjonalnymi modelu FRBR. Drugim założeniem było zaproponowanie typologii kryteriów oceny jakości metadanych niezależnie od dziedziny czy też domeny (stąd na wysokim stopniu ogólności), którą reprezentują zasoby informacyjne opisane za ich pomocą (Bruce, Hillmann, 2004, s. 242). Koncepcja Bruce’a
i Hillmann zakłada siedem kryteriów oceny jakości metadanych:
1.
Kompletność (completeness). Kryterium to może być rozumiane na dwa sposoby. W pierwszym jest to gotowość samego schematu metadanych do odwzorowania jak największej ilości pożądanych informacji o zasobach informacyjnych. W drugim odnosi się to do użycia potencjału semantycznego schematu metadanych w procesie reprezentacji informacji na potrzeby konkretnej kolekcji i jak najpełniejszego wykorzystania jego możliwości do opisu cech danego dokumentu. Zdaniem autorów, rekord metadanych powinien opisywać dany zasób informacyjny najpełniej jak to możliwie przy założeniu określonego poziomu ekonomiki pracy. Kryterium to odnosi się do ilości informacji dostępnej na temat danego zasobu informacyjnego w systemie.
2.
Poprawność (accuracy). Rekord metadanych powinien zawierać dane poprawne zarówno na poziomie syntaktycznym, jak i semantycznym, co jest nawiązaniem do koncepcji poprawności danych Olsona. Tak rozumiana jakość metadanych odnosi się m.in. do eliminacji błędów językowych i typograficznych, poprawnego stosowania skrótów oraz nazw własnych w polach rekordu metadanych.
3.
Zgodność z oczekiwaniami (conformance to expectations). Kryterium to odnosi się do stopnia, w jakim przyjęty na potrzeby danego systemu informacyjnego schemat metadanych pozwala na realizację jego wymogów funkcjonalnych i jest dostosowany do oczekiwań użytkowników wobec realizacji przez nich zamierzonych działań (Ochoa, 2014, s. 67). Bruce i Hillmann zauważają (2004, s. 244), że kwestia pomijania określonych elementów ze schematu metadanych w procesie tworzenia rekordów metadanych może z pozoru kwalifikować się do kryterium kompletności. W rzeczywistości taka selekcja może być celowa i wynikać z polityki katalogowania, w której zidentyfikowano określony zestaw elementów z danego schematu jako wymagany i zgodny z oczekiwaniami użytkowników.
4.
Spójność formalno-logiczna (logical consistency; coherence). W tym przypadku również możemy mówić o dwóch poziomach spójności. Pierwszy odnosi się do schematu metadanych i modelu konceptualnego, który stanowi jego podstawę, drugi do spójności na poziomie reprezentacji wartości metadanych w rekordach. W pierwszym przypadku mamy więc do czynienia z zasadniczym pytaniem o to, czy schemat metadanych w adekwatny sposób odwzorowuje strukturę pojęciową dziedziny lub domeny, którą w jego założeniu ma opisywać. Spójność na poziomie rekordu metadanych odnosi się do standaryzacji w odwzorowaniu informacji i wiąże się ze stosowaniem określonych konwencji zapisu wartości metadanych i wykorzystaniem np. kartotek haseł wzorcowych oraz słowników języków informacyjno-wyszukiwawczych.
5.
Dostępność (accessibility). Podstawą identyfikacji tego kryterium jest stwierdzenie, że metadane są bezwartościowe, jeżeli użytkownicy nie potrafią ich odczytać lub zrozumieć (Bruce, Hillmann, 2004, s. 247). Tego typu bariery mogą mieć podłoże fizyczne lub intelektualne. W pierwszym przypadku oznacza to brak możliwości dostępu do metadanych dla danego zasobu informacyjnego np. z przyczyn technicznych (np. nieaktywne URL dla rekordu metadanych), które wystąpiły w systemie informacyjnym. W drugim, problemem może się okazać zbyt duże obciążenie kognitywne użytkownika w procesie interpretacji elementów rekordu metadanych.
6.
Aktualność (timeliness). Ochoa (2014, s. 68), interpretując to kryterium w odniesieniu do koncepcji Bruce’a i Hillmann, stwierdza, że rekord metadanych powinien być aktualizowany przy każdej zmianie, której podlega zasób informacyjny, którego jest on reprezentacją w systemie. Może to dotyczyć np. zmian w prawach lub trybie dostępu do zasobu czy też modyfikacji zbiorów słownictwa kontrolowanego stosowanego do odwzorowania elementów danych. Bruce i Hillmann zwracają również uwagę na problem niesynchronicznego udostępniania w systemie informacyjnym (przede wszystkim pełnotekstowym) dokumentu oraz jego rekordu metadanych, które określają mianem opóźnienia (lag). Problem dotyczy sytuacji, w której w systemie informacyjnym udostępnia się zasób informacyjny bez rekordu metadanych, który go opisuje, lub rekord ten trafia do systemu z opóźnieniem.
7.
Pochodzenie (provenance). To kryterium jest związane z cyklem życia rekordu metadanych i według koncepcji Bruce’a i Hillmann odnosi się do informacji o twórcy rekordu metadanych, dacie jego utworzenia, stosowanych standardów katalogowania czy też transformacji samego rekordu. Informacje na temat pochodzenia rekordu metadanych mogą mieć istotne znaczenie w kontekście systemów informacyjnych agregujących metadane z wielu źródeł.
Kryteria jakości metadanych w koncepcji Bruce’a i Hillmann odnoszą się zarówno do cech schematu metadanych, jak i do wartości poszczególnych elementów danych. Autorzy ci zidentyfikowali trzy poziomy kryteriów oceny jakości metadanych – poziom semantyczny, syntaktyczny oraz poziom wartości danych (Bruce, Hillmann, 2004, s. 249). Poziom semantyczny oceny jakości metadanych jest zdeterminowany przez model konceptualny schematu metadanych i odnosi się do jego siły semantycznej w odwzorowaniu informacji oraz do jego adekwatności w kontekście struktury pojęciowej domeny, którą ma w założeniu opisywać. Na poziomie syntaktycznym ocena jakości metadanych jest również zdeterminowana przez schemat metadanych, ale na płaszczyźnie jego wewnętrznych regulacji dotyczących sposobu kodowania (zapisu) informacji. Na jakość na poziomie wartości danych ma wpływ sposób opisu zasobów informacyjnych realizowany przez osoby katalogujące lub algorytmy przyjęte do generowania lub ekstrakcji takich informacji. Koncepcja Bruce’a i Hillmann, chociaż jest wartościowa w warstwie poznawczej, nie oferuje formalnego aparatu oceny jakości metadanych. Autorzy dla każdego ze zidentyfikowanych kryteriów zaproponowali jedynie zestaw pytań (Bruce, Hillmann, 2004, s. 251-252), które w założeniu mają ułatwić przeprowadzenie procesu diagnostyki metadanych na potrzeby danej kolekcji.
Model oceny jakości informacji Stvilii i współautorów
Jedną z najbardziej rozbudowanych koncepcji oceny jakości metadanych funkcjonujących w literaturze przedmiotu jest model opracowany przez zespół badawczy zwany dalej „zespołem Stvilii” od nazwiska pierwszego autora publikacji (Stvilia i in., 2007). Chociaż w modelu tym (Framework for Information Quality Assessment) przyjęto szeroką i wieloaspektową perspektywę poznawczą na problem jakości informacji w odniesieniu do zasobów informacyjnych, to zaproponowana koncepcja ma również odniesienie do oceny jakości metadanych. Autorzy przeprowadzili analizę literatury przedmiotu i zidentyfikowali 32 typologie kryteriów oceny jakości informacji. Na tej podstawie zaproponowali 21 kryteriów oceny jakości tzw. obiektów informacyjnych (np. dokument, rekord metadanych), które zorganizowali w trzy główne kategorie:
−
wewnętrzna jakość informacji (intristic information quality),
−
relacyjna lub kontekstualna jakość informacji (relational/contextual information quality),
−
jakość informacji związana z reputacją (reputational information quality).
Kategoria wewnętrznych kryteriów jakości informacji obejmuje atrybuty odnoszące się bezpośrednio do zasobów informacyjnych, które poddają się formalnej ocenie z zastosowaniem zewnętrznego standardu jako punktu odniesienia. Uznaje je się za stabilne kryteria oceny jakości, które nie są zdeterminowane kontekstualnie. Zaliczono do nich m.in.: poprawność, spójność semantyczną, spójność strukturalną, aktualność. Kontekstualne kryteria oceny jakości informacji odnoszą się do relacji między danym obiektem informacyjnym a kontekstem jego użycia. Jednym ze szczegółowych kryteriów oceny jakości, które ulokowano w tej kategorii, jest kryterium reprezentatywności (representational quality dimensions). Jest ono stosowane do oceny stopnia szczegółowości odwzorowania przez obiekt informacyjny pewnego zewnętrznego stanu rzeczy. W kontekście metadanych można to odnieść do poziomu szczegółowości schematu metadanych oraz poziomu szczegółowości wartości danych, na który wpływ ma przyjęta polityka katalogowania oraz „wydajność” zastosowanych narzędzi reprezentacji informacji (np. zbiorów słownictwa kontrolowanego). Kategoria kryteriów jakości informacji związanych z reputacją odnosi się do pozycji obiektu informacyjnego w danej społeczności lub kręgu kulturowym. W odniesieniu do metadanych może oznaczać to zestaw elementów danych wpisujących się w kategorię pochodzenia (provenance), które rejestrują informacje dotyczące cyklu życia rekordu i mogą wpływać na ocenę wiarygodności informacji.
W swoim modelu zespół Stvilii zaproponował 41 miar oceny jakości informacji, z czego 30 odnosi się bezpośrednio do treści i formy zasobów informacyjnych, a 11 dotyczy procesów związanych z metadanymi. W dużym uproszczeniu, zastosowanie drugiej kategorii miar w diagnostyce metadanych ma za zadanie uzyskać informacje na temat tego, co zostało wykonane na płaszczyźnie metadanych w kontekście danego zasobu informacyjnego, przez kogo, kiedy, gdzie, w jaki sposób i w jakim celu.
Model oceny jakości informacji zespołu Stvilii jest próbą wieloaspektowego spojrzenia na problem oceny jakości ale z perspektywy informatologicznej, w której istotnym elementem jest system informacyjny oraz reprezentacja informacji za pośrednictwem metadanych. Wielu autorów podejmujących problem oceny jakości metadanych dostrzegało związki tego modelu z koncepcją Bruce’a i Hillmann i próbowało opracować mapowania tych dwóch konstruktów (np. Ochoa, 2014; Park, 2009; Tani, Candela, Castelli, 2013).
Diagnostyka metadanych – przegląd wybranych strategii
Diagnostyka metadanych może być rozumiana jako zastosowanie strategii i technik analizy jakości danych w kontekście ich optymalizacji na potrzeby realizacji wymogów funkcjonalnych systemu informacyjnego, w którym funkcjonują, oraz na potrzeby zarządzania informacją. Na poziomie koncepcyjnym strategie te są pochodną przyjętych kryteriów oceny jakości metadanych i oferują metodykę i środki techniczne do ich zastosowania w praktyce. Na poziomie technicznym przeprowadzenie diagnostyki metadanych jest uzależnione od narzędzi i funkcjonalności systemów informacyjnych, które stanowią ich naturalne środowisko funkcjonowania. Często praktykowanym rozwiązaniem jest przeniesienie procesu diagnostyki metadanych poza ramy systemu informacyjnego z zastosowaniem podejścia Extract-Transform-Load (ETL). W kontekście diagnostyki metadanych polega ono na eksporcie metadanych do przetwarzalnego formatu danych, dokonaniu niezbędnych transformacji w oparciu o przyjęte rozwiązania diagnostyczne i ponownym imporcie danych do systemu. Metodyka ETL jest często stosowanym rozwiązaniem w systemach bazodanowych agregujących dane z wielu, często heterogenicznych źródeł.
W dalszej części artykułu zostaną przedstawione trzy wybrane strategie optymalizacji metadanych.
Koncepcja profilowania danych Olsona
Koncepcja profilowania danych Olsona (2003, s. 119-236) została opracowana jako jedna z technik optymalizacji danych w kontekście ich poprawności. Profilowanie danych według Olsona polega na zastosowaniu technik analitycznych w celu określenia aktualnej zawartości, struktury i oceny jakości zbioru danych. Profilowanie danych może przyjąć dwie postaci. Pierwsza zakłada zastosowanie procesów eksploracji danych (data mining) do zbudowania modelu danych i na jego podstawie wykrycia danych niepoprawnych z formalnego punktu widzenia. W drugim ujęciu (assertive testing) przyjmuje się wstępne założenia dotyczące formalnej poprawności elementów danych i na tej podstawie dokonuje analiz. Profilowanie danych pozwala wyłącznie na identyfikację odstępstw od przyjętych reguł poprawnościowych, nie zaś na wykrycie wszystkich nieprawidłowych danych w zbiorze (Olson, 2003, s. 123). Koncepcja Olsona na poziomie logicznej organizacji danych wykorzystuje relacyjny model baz danych. Oznacza to, że cała metodyka oceny poprawności danych opiera się na analizach wartości danych zapisanych w formie tabelarycznej. Mamy więc do czynienia z kolumnami, których nagłówki reprezentują nazwy elementów ze schematu metadanych oraz wierszami, które zawierają treść rekordów metadanych.
Kluczowe znaczenie dla określenia poprawności danych ma odniesienie założeń do schematu metadanych przyjętego do ich reprezentacji. Semantyka schematu metadanych i jego wytyczne związane z zapisem danych wyznaczają istotne punkty odniesienia w procesie ich walidacji. Po etapie ekstrakcji danych do modelu relacyjnego rozpoczyna się pięcioetapowa procedura oceny ich poprawności.
−
analiza kolumn (column property analysis),
−
analiza strukturalna (structure analysis),
−
analiza prostych reguł prawidłowości danych (simple data rule analysis),
−
analiza złożonych reguł prawidłowości danych (complex data rule analysis),
−
analiza reguł wartości danych (value rule analysis).
Analiza kolumn polega na potraktowaniu każdej kolumny danych w tabeli jako niezależnego przedmiotu oceny, przy czym dane zawarte w danej kolumnie zawierają wartości reprezentujące ten sam element ze schematu metadanych. Analizy przeprowadza się na wykazie unikalnych wartości danych i w zależności od przyjętej techniki profilowania danych (eksploracyjna vs. dedukcyjna) poszukuje się odstępstw od przyjętych reguł.
Podczas analizy strukturalnej wykorzystuje się reguły definiujące zależności między kolumnami, które tworzą bazę danych. Jest to ewidentne nawiązanie do logicznej organizacji danych w relacyjnym modelu baz danych, w której dane złożone przechowuje się w wielu tabelach. W przypadku metadanych bibliograficznych możemy tę procedurę odnieść do struktury rekordu metadanych, w którym mamy do czynienia z opisem na poziomie analitycznym (np. artykuł w pracy zbiorowej). Jeżeli przedmiotem opisu jest artykuł z pracy zbiorowej, to metadane dotyczące pracy zbiorowej mogą być przechowywane w osobnym rekordzie. Tym samym w rekordzie metadanych dla dokumentu podrzędnego w odpowiednim polu powinien znaleźć się identyfikator rekordu dla pracy zbiorowej. Celem tej procedury jest analiza poprawności odwzorowania struktury bazy danych w rekordach metadanych.
O ile w przypadku analizy kolumn celem jest identyfikacja wartości danych, które nie spełniają przyjętych reguł poprawnościowych, to zastosowanie prostych i zaawansowanych analiz reguł prawidłowości danych pozwala na wychwycenie zależności między wartościami danych w rekordzie. Wiąże się to z zastosowaniem reguł wnioskowania w celu generowania nowych wartości danych lub identyfikacji błędnych zapisów. Olson definiuje regułę prawidłowości danych jako wytyczne określające warunki, jakie muszą być spełnione w odniesieniu do wartości danych w jednej lub wielu kolumnach (Olson, 2013, s. 134). Jako przykład takiej analizy podaje regułę, która mówi, że jeżeli w bazie danych klientów danej firmy element „status klienta” przyjmuje wartość „złoty”, to element „zniżka” w danym rekordzie przyjmuje wartość „10%”. Olson taki przykład reguły kwalifikuje jako „biznesową”. W przypadku metadanych dla zasobów informacji reguły prawidłowości danych mogą być opracowane na podstawie modelu konceptualnego schematu metadanych lub wynikać z polityki zarządzania kolekcją i reprezentować ich formalno-logiczną płaszczyznę. Np. dla tradycyjnych kolekcji bibliotecznych możliwe jest zastosowanie reguły wynikającej z polityki zarządzania kolekcją, która mówi, że jeżeli element „data wydania” przyjmuje wartość mniejszą niż „1945”, to element „status” przyjmuje wartość „nie wypożycza się”. Wprowadzenie reguł prawidłowości danych do schematów metadanych wiąże się z koniecznością zastosowania języka logiki, co jest charakterystyczną cechą ontologii jako narzędzia reprezentacji i organizacji wiedzy. O doborze typu analiz reguł prawidłowości (proste vs zaawansowane) decyduje zdaniem Olsona liczba korelowanych zmiennych z bazy danych (Olson, 2003, s. 135).
Ostatni typ analiz odnosi się do zastosowania technik heurystycznych w analizie danych, gdzie poszukuje się odstępstw z wykorzystaniem np. metod statystycznych. Olson sugeruje tutaj możliwość obliczania średnich wartości danych, mediany czy odchylenia standardowego w celu identyfikacji odchyleń w wartościach danych.
Koncepcja profilowania danych Olsona może być realizowana za pośrednictwem wielu technik, z których autor ten wymienia m.in. eksplorację danych, przyjęcie reguł poprawności danych i analizę odstępstw, tzw. inspekcję wizualną (visual inspection), która polega na manualnym przeglądaniu bazy danych z wykorzystaniem np. metod statystycznych i iteracyjnym testowaniu prawidłowości (np. z wykorzystaniem wyrażeń regularnych (REGEX), czy też wykorzystanie oprogramowania do analizy poprawności danych.
Wskaźniki Ya Ning Chena i współautorów
Zespół badaczy, zwany dalej „zespołem Chena” od nazwiska pierwszego autora (Chen i in., 2011), opracował metodologię oceny jakości metadanych opartą na identyfikacji zmiennych kwantyfikowalnych. Badania te przeprowadzono na potrzeby diagnostyki kolekcji cyfrowych tworzonych w ramach programu Taiwan e-Learning and Digital Archives Program (TELDAP). Na płaszczyźnie koncepcyjnej metodologia ta bazuje na wynikach badań Bruce’a i Hillmann (2004) prezentujących typologię elementów składających się na pojęcie jakości metadanych. Metodologia opracowana przez zespół Chena odnosi się wyłącznie do jakości metadanych na poziomie elementów danych (Chen i in., 2011, s. 140) i uwzględnia zastosowanie technik analitycznych w ujęciu koncepcji Olsona (2003, s. 37-40). Wynikiem prac tego zespołu był zestaw wskaźników, które odnoszą się do pięciu kryteriów oceny jakości metadanych:
– zgodność z oczekiwaniami (conformance to expectations),
– pochodzenie (provenance),
– kompletność (completeness),
– poprawność (accuracy),
– dostępność (accessibility).
Dla każdego kryterium oceny jakości metadanych opracowano zestaw wskaźników, dla których zastosowanie technik analitycznych pozwoli ustalić ich mierzalną wartość. Diagnostykę jakości metadanych przeprowadzono na bazie zbioru metadanych w schemacie Dublin Core.
Przez zgodność z oczekiwaniami rozumie się tutaj stopień, w jakim określona kolekcja współtworzy program TELDAP mierzony liczbą rekordów metadanych przesyłanych do platformy centralnej. Zaproponowano formułę, która zakłada obliczenie stosunku liczby przesłanych rekordów metadanych do zakładanej całkowitej liczby rekordów w projekcie.
Koncepcja reprezentacji informacji na temat pochodzenia metadanych jest związana z długoterminowym przechowywaniem, zarządzaniem i wymianą zarówno zasobów informacyjnych, jak i metadanych. Poprzez termin ten rozumie się informacje o chronologii związanej z rekordem metadanych w kontekście jego cyklu życia, który uwzględnia m.in. podmioty odpowiedzialne za utworzenie i zarządzanie rekordem lub zasobem informacyjnym (Li, Sugimoto, 2014, s. 149). Zespół Chena stosuje jednak odmienną interpretację tego terminu, w której próbuje się określić reputację instytucji przesyłającej rekordy metadanych przez pryzmat ich odpowiedniej jakości (Chen i in., 2011, s. 141), stawiając trzy pytania:
1.
Czy w dostarczonych rekordach metadanych obecne są wartości dla następujących elementów metadanych: tytuł, identyfikator, format, temat, prawa, wydawca?
2.
Czy w rekordach metadanych stosuje się słownictwo kontrolowane (np. kartoteki haseł wzorcowych) dla elementów: temat, zasięg, twórca, współtwórca?
3.
Czy podczas tworzenia rekordów metadanych stosuje się zasady katalogowania lub inne formy standaryzacji procesu reprezentacji informacji?
Przez kompletność metadanych w omawianej metodologii rozumie się liczbę elementów ze schematu metadanych wykorzystanych do reprezentacji informacji w kolekcji. Autorzy tej metodologii odwołują się tutaj do pojęcia obligatoryjności i fakultatywności elementów metadanych występujących w schematach metadanych oraz do polityki katalogowania stosowanej w ramach projektu TELDAP, w której zidentyfikowano sześć podstawowych elementów metadanych uznanych za obowiązkowe. Przyjmują jednak ogólne założenie, że większa liczba elementów metadanych odwzorowanych w rekordzie przekłada się na większą ilość informacji kontekstowej na temat zasobu informacyjnego, które mogą pomóc użytkownikowi w wyszukaniu zasobu i podjęciu decyzji o jego potencjalnym wykorzystaniu.
Poprawność metadanych rozumiana jest tutaj w kontekście sposobu odwzorowania wartości dla poszczególnych elementów metadanych. Autorzy położyli nacisk na określenie poprawności semantycznej, nie zaś syntaktycznej. Oznacza to, że celem zastosowania technik analitycznych jest wyłącznie wskazanie, czy dana wartość jest spójna ze znaczeniem elementu metadanych, który odwzorowuje.
Przez dostępność autorzy rozumieją zarówno możliwość wyświetlenia lub pobrania rekordu metadanych oraz samego obiektu cyfrowego, który on opisuje. Do określenia stopnia dostępności wykorzystuje się tutaj weryfikację aktualności adresów URL występujących rekordzie metadanych oraz ich unikalność w rozumieniu zasady Dublin Core 1:1. Zasada ta w kontekście pragmatyki schematu Dublin Core oznacza konieczność utworzenia odrębnych rekordów metadanych dla różnych form utrwalenia tego samego zasobu informacyjnego (np. obraz i jego cyfrowa reprodukcja) oraz stosowanie ich unikalnych identyfikatorów (Urban, 2014).
Strategie Setha Van Hoolanda
Van Hooland w swojej rozprawie doktorskiej (2009) na temat jakości metadanych w cyfrowych kolekcjach z obszaru dziedzictwa kulturowego zaproponował autorskie strategie związane z ich diagnostyką. Pierwsza strategia dotyczy formalnej jakości metadanych i zakłada wykorzystanie metodyki profilowania danych (data-profiling), druga – wykorzystanie informacji pozyskanych od użytkowników do optymalizacji jakości metadanych, trzecia – dotyczy optymalizacji wykorzystania metadanych poprzez monitorowanie potrzeb informacyjnych z wykorzystaniem danych dotyczących sposobów interakcji użytkowników z systemem informacyjnym. Van Hooland zastosował profilowanie danych scharakteryzowane przez Olsona jako wykorzystanie technik analityczny do identyfikacji nieprawidłowości w zbiorach danych (Olson, 2003, s. 72). Van Hooland w zaproponowanej metodyce profilowania zidentyfikował następujące procesy diagnostyki metadanych:
−
identyfikacja niedozwolonych wartości danych,
−
identyfikacja błędnych zapisów,
−
identyfikacja pól z brakującymi wartościami,
−
identyfikacja duplikatów.
Autor przeprowadził diagnostykę metadanych dla kolekcji Royal Museum of Central Africa z wykorzystaniem darmowej i ogólnodostępnej aplikacji Data Profiler (http://sourceforge.net/projects/dataprofiler). Narzędzie to umożliwia przeprowadzenie diagnostyki danych, która pozwala na identyfikację brakujących elementów w rekordach metadanych i analizę heurystyczną zbioru danych w oparciu o zadeklarowane schematy formatowania elementów danych (np. poszukiwanie błędnych zapisów dat na podstawie odstępstw od zakładanego formatu DD-MM-RRRR), a także generowanie unikalnych wartości danych oraz zliczanie ich całkowitej liczby wystąpień w kolekcji. Van Hooland zastosował również analizę morfologiczną wyrażeń występujących w polach rekordów metadanych, poszukując nazw własnych oraz zliczając znaki w poszczególnych polach rekordu (poszukując odstępstw).
Druga strategia Van Hoolanda przyjmuje założenie będące podstawą Web 2.0, czyli odnosi się do aktywnej roli użytkownika informacji w procesach informacyjnych zachodzących w środowisku sieciowym i traktuje go jako proaktywne ogniwo sieciowych systemów informacyjnych. Van Hooland proponuje wykorzystanie uwag i komentarzy użytkowników sieciowych kolekcji cyfrowych na potrzeby optymalizacji informacji w rekordach metadanych. Badania, które przeprowadził na reprezentatywnej próbie komentarzy dla cyfrowej kolekcji dokumentów ikonograficznych National Archives of the Netherlands, wskazały, że w ponad 45% przypadków komentarze użytkowników zawierały krytyczne informacje dotyczące zawartości metadanych dla tych dokumentów oraz wskazywały na konieczność ich poprawienia.
Trzecia strategia Van Hoolanda zakłada zastosowanie architektury interfejsów graficznych użytkownika dla systemów informacyjnych, w której użytkownik ma wpływ na funkcjonalności zarówno mechanizmu wyszukiwania, jak i prezentacji informacji w systemie. Van Hooland oparł swoją strategię na koncepcji dynamicznych interfejsów (dynamic interface), w których wykorzystuje się profilowanie użytkownika na podstawie jego sposobów interakcji z systemem. Autor opracował prototyp interfejsu graficznego użytkownika, który zakładał możliwość manipulowania strukturą mechanizmu wyszukiwania informacji w systemie poprzez swobodne dodawanie i usuwanie określonych kryteriów wyszukiwania informacji. Po jego implementacji w kolekcji cyfrowej National September 11 Memorial & Museum, autor zamierzał przeprowadzić diagnostykę metadanych z punktu widzenia potrzeb i zachowań informacyjnych użytkowników systemu. Niestety nie odnotowano żadnej publikacji Van Hoolanda z wynikami badań z tego eksperymentu.
W 2014 r. Van Hooland i Ruben Verborgh opublikowali poradnik pt. Linked data for libraries, archives and museums: how to clean, link and publish your metadata (Van Hooland. Verborgh, 2014), w którym przedstawili m.in. metodykę diagnostyki metadanych nawiązującą do pierwszej strategii Van Hoolanda, czyli profilowania danych.
Studium przypadku – Medioteka.pl
W celu egzemplifikacji przedstawionych rozważań przeprowadzono eksperyment badawczy na podzbiorze kolekcji cyfrowej Medioteka, która jest biblioteką cyfrową Wydziału Dziennikarstwa, Informacji i Bibliologii Uniwersytetu Warszawskiego. Zakres tematyczny kolekcji obejmuje przede wszystkim zagadnienia bibliologii i informatologii, ale jest sukcesywnie rozszerzany o problemy badawcze nauki o mediach. Przedmiotem badań była kolekcja książek (wydawnictw zwartych), która w momencie przeprowadzenia badania (04.04.2017 r.) liczyła 352 dokumenty elektroniczne. Zgodnie z dokumentacją Medioteki, system ten wykorzystuje podstawowy piętnastoelementowy schemat metadanych Dublin Core Metatada Element Set (DCMES) (http://dublincore.org/documents/dces/). Za pośrednictwem protokołu komunikacyjnego OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting) z kolekcji „Książki” Medioteki (http://medioteka.uw.edu.pl/
dlibra/collectiondescription?dirids=3) pobrano zbiór rekordów metadanych, który przekonwertowano do formatu CSV (comma-separated values) i zaimportowano do arkusza kalkulacyjnego w celu dalszych analiz. Tym samym, podstawowym środowiskiem programistycznym wykorzystanym do diagnostyki metadanych było narzędzie pakietu biurowego w postaci arkusza kalkulacyjnego.
Diagnostykę przeprowadzono w oparciu o zestaw wskaźników zespołu Chena scharakteryzowanych w sekcji niniejszego artykułu zatytułowanej Wskaźniki Ya Ning Chena i współautorów oraz z wykorzystaniem elementów koncepcji profilowania danych Olsona (sekcja Koncepcja profilowania danych Olsona).
Zgodność z oczekiwaniami
Z uwagi na fakt, że badanie przeprowadzono na zbiorze opublikowanych rekordów metadanych, nie można było ustalić rzeczywistej liczby rekordów w systemie.
Pochodzenie
Przyjęto rozumienie elementu pochodzenie zgodnie z założeniami tej metodyki zespołu Chena, próbując uzyskać odpowiedzi na następujące pytania badawcze.
Czy w dostarczonych rekordach metadanych obecne są wartości dla następujących elementów metadanych: tytuł, identyfikator, format, temat, prawa, wydawca?
Czy w rekordach metadanych stosuje się słownictwo kontrolowane (np. kartoteki haseł wzorcowych) dla elementów: temat, zasięg, twórca, współtwórca? Brak danych.
Czy podczas tworzenia rekordów metadanych stosuje się zasady katalogowania lub inne formy standaryzacji procesu reprezentacji informacji? Brak danych.
Tabela 1. Wartości zmiennych dla kryterium pochodzenia
Element
Odsetek wystąpień
dc.format
99,7
dc.identifier
100,0
dc.publisher
99,4
dc.subject
100,0
dc.title
99,7
dc.rights
0
Źródło: oprac. własne.
Z przedstawionych w tabeli 1 danych wynika, że kryterium pochodzenia nie jest w pełni spełnione w tym przypadku. Mamy bowiem do czynienia z brakującymi wartościami dla kilku rekordów w polach tytuł, format i wydawca. W żadnym z rekordów nie odnotowano jednak wartości dla elementu prawa (dc.rights). Kryterium to dla kolekcji książek jest spełnione w 83%.
Kompletność
Przez kompletność rozumie się ilość informacji odwzorowywanych w kolekcji za pośrednictwem schematu metadanych i określa się nią wskazując na liczbę (odsetek) elementów schematu metadanych użytych do opisu zasobów informacyjnych (tab. 2)
Tabela 2. Wartości zmiennych dla kryterium kompletności
Element
Liczba
rekordów
Odsetek wystąpień
dc.contributor
285
81
dc.coverage
3
0,9
dc.creator
188
53,4
dc.date
348
98,9
dc.description
345
98
dc.format
352
100
dc.identifier
352
100,0
dc.language
342
97,2
dc.publisher
351
99,7
dc.relation
264
75
dc.source
222
63,1
dc.subject
352
100,0
dc.title
352
100
dc.type
346
98,3
dc.rights
0
0
Źródło: oprac własne.
Dane przedstawione w tabeli 2 pokazują na nierównomierne wykorzystanie schematu metadanych DCMES. Problemem obiektywizacji tego kryterium może tutaj być brak informacji kontekstowych na temat polityki katalogowania stosowanej w tym systemie informacyjnym. Poza tym nie wszystkie elementy ze schematu muszą mieć zastosowanie w każdym z rekordów (np. element „współtwórca” – dc.contributor). W założeniu DCMES nie wprowadza pojęcia obligatoryjności i fakultatywności elementów do schematu. Tym samym dane przedstawione w tabeli 2 pokazują jedynie rzeczywiste wykorzystanie potencjału DCMES, którego uśredniona wartość w kontekście kompletności wynosi 78%.
Poprawność
Poprawność może być interpretowana zarówno na płaszczyźnie semantycznej (wartość jest spójna ze znaczeniem elementu metadanych, który odwzorowuje) oraz syntaktycznej (wartość jest poprawnie zapisana). Na potrzeby eksperymentu zdecydowano się na analizę poprawności z punktu widzenia spójności wartości danych dla każdego z elementów z jego zakładanym znaczeniem opisanym w dokumentacji schematu metadanych DCMES. W wyniku przeprowadzonych analiz identyfikowano błędne zapisy dla elementów DCMES „zasięg” (dc.coverage), „data” (dc.date) oraz „wydawca” (dc.publisher). Element „zasięg” definiowany jest jako „umiejscowienie treści zasobu w czasie i przestrzeni, zakres jego zastosowania lub jurysdykcja, której podlega” (Terminy metadanych DCMI, 2009). Został on wykorzystany tylko trzy razy w całej kolekcji, a wartości danych, które w nim odwzorowano, wskazują na numerację tomu dla wydawnictwa wielotomowego (np. „t. 24”). Tym samym wartości te nie są spójne ze znaczeniem elementu ze schematu metadanych. W przypadku pola „data” zidentyfikowano pole o wartości „204”, która co prawda spełnia wymogi poprawności semantycznej, ale została zidentyfikowana na zasadzie odstępstw od rozkładu wartości tej zmienne w zbiorze i reprezentuje błąd o charakterze syntaktycznym. W przypadku pola „wydawca”, które jest definiowane jako „Wydawcą może być na przykład osoba, organizacja lub usługa. Zazwyczaj jednostkę tę powinna określać nazwa Wydawcy” (Terminy Metadanych DCMI, 2009), problemem okazało się odwzorowywanie miejsca wydania jako pierwszego elementu obok nazwy wydawcy. Tylko w dwóch przypadkach pole to zawierało wyłącznie nazwę wydawcy, zgodnie z założeniem tego elementu.
Dostępność
Analizę kryterium dostępności przeprowadzono poprzez weryfikację adresów URL w polu „identyfikator” (dc.identifier), które zawierało informacje o lokalizacji dokumentu cyfrowego opisanego w rekordzie. Pierwszym etapem była weryfikacja unikalności URL w celu potwierdzenia zasady Dublin Core 1:1. Na podstawie przeprowadzonych analiz stwierdzono, że pełną unikalność wartości dla elementu dc.identifier. Kolejnym etapem była weryfikacja aktualności adresów URL pełniących funkcje identyfikatorów dla dokumentów cyfrowych. W tym celu wykorzystano aplikację HEADMaster SEO, która na podstawie listy adresów URL pobiera z serwera docelowego podstawowe informacje na temat dostępności danego zasobu sieciowego zwracają wartość kodu nagłówka HTTP. W wyniku przeprowadzonych analiz zidentyfikowano tylko jedno (http://medioteka.uw.edu.pl/Content/716) wystąpienia pola dc.identifier, w którym aplikacja zwróciła kod „404 – nie znaleziono”. W pozostałych przypadkach wszystkie adresy URL występujące w polu identyfikator były aktualne.
Przedstawione wyniki diagnostyki metadanych dla kolekcji książek w bibliotece cyfrowej Medioteka nie uwzględniają jednak problemu poprawności danych w ujęciu Olsona. Podczas analiz odnotowano jednak tego rodzaju problemy, co jest przesłanką do przeprowadzenia pogłębionych badań w tym zakresie. Należy również pamiętać, że eksperyment badawczy został przeprowadzony z punktu widzenia obserwatora zewnętrznego, czyli bez wiedzy na temat pełnej zawartości kolekcji (np. rekordy oczekujące na opublikowanie) oraz przyjętych zasad katalogowania (pola wymagane i obligatoryjne). Tym samym przeprowadzona diagnostyka daje tylko pewien obraz stanu rzeczy, co ilustruje rysunek 1.
Rysunek 1. Wyniki diagnostyki metadanych dla kolekcji książek w bibliotece cyfrowej Medioteka
Źródło: oprac. własne.
Zakończenie
Przedstawione w artykule rozważania na temat pojęcia jakości metadanych oraz diagnostyki metadanych nie wyczerpują całokształtu tej problematyki, lecz są próbą identyfikacji istotnych i zdaniem autora wartych uwagi koncepcji związanych z tym tematem. Z pewnością istnieje potrzeba pogłębionych badań szczegółowych w tym zakresie i weryfikacji metod i strategii diagnostyki metadanych obecnych w dyskursie naukowym z obszaru nauki o informacji. Obok jednej z ważniejszych koncepcji oceny jakości metadanych autorstwa Bruce’a i Hillmann istnieje wiele prób jej formalizacji i wykorzystania automatycznego lub półautomatycznego sposobu diagnozowania jakości metadanych (np. Ochoa, Duval, 2009). Mamy więc do czynienia z jednej strony z zastosowaniem technologii informacyjnych (m.in. z obszaru analizy i eksploracji danych oraz przetwarzania języka naturalnego), a z drugiej z próbą opracowania i zastosowania formalnych miar oceny jakości metadanych (Gavrilis i in., 2015; Király, 2015).
Bibliografia
1.
Bojar, Bożenna red. (2002). Słownik encyklopedyczny informacji, języków i systemów informacyjno-wyszukiwawczych. Warszawa: Wydawnictwo SBP.
2.
Bruce, Thomas R.; Hillmann, Diane I. (2004). The continuum of metadata quality: defining, expressing, exploiting. In: Diane I. Hillmann, Elaine L. Westbrooks eds. Metadata in practice. Chicago: American Library Association, pp. 238–256.
3.
Chen, Ya-Ning; Wen, Chun-Ya; Chen, Hui-Pin; Lin, Yen-Hung ; Sum, Hon-Chung (2011). Metrics for metadata quality assurance and their implications for digital libraries. In: Chunxiao Xing, Fabio Crestani, Andreas Rauber eds. Digital libraries: for cultural heritage, knowledge dissemination, and future creation. ICADL 2011. Lecture Notes in Computer Science, vol. 7008. Berlin: Springer, pp. 138–147.
4.
Cutter, Charles A. (1904). Rules for a dictionary catalog : special report on public libraries. Government printing office.
http://digital.library.unt.edu/ark:/67531/metadc1048/ (odczyt: 05.04.2017).
5.
Functional requirements for bibliographic records. (2009). IFLA. http://www.ifla.org/files/cataloguing/frbr/frbr_2008.pdf (odczyt: 05.04.2017).
6.
Gavrilis, Dimitris; Makri, Dimitra-Nefeli; Papachristopoulos, Leonidas; Angelis, Stavros; Kravvaritis, Konstantinos; Papatheodorou, Christos; Constantopoulos, Panos (2015). Measuring quality in metadata repositories. In: Sarantos Kapidakis, Cezary Mazurek, Marcin Werla eds. Research and advanced technology for digital libraries. Lecture Notes in Computer Science, vol. 9316. Berlin: Springer, pp. 56–67.
7.
Greenberg, Jane (2005). Understanding metadata and metadata schemes. Cataloging & Classification Quarterly, vol. 40, issue 3–4, pp. 17–36.
8.
Király, Peter (2015). A metadata quality assurance framework. https://pkiraly.github.io/metadata-quality-project-plan.pdf (odczyt: 05.04.2017).
9.
Li, Chunqiu; Sugimoto, Shigeo (2014). Provenance description of metadata using PROV with PREMIS for long-term use of metadata. In: International conference on Dublin Core and metadata applications, pp. 147–156.
http://dcpapers.dublincore.org/pubs/article/view/3709 (odczyt: 05.04.2017).
10.
Ochoa, Xavier (2014). Metadata quality. In: Miguel-Angel Sicilia ed. Handbook of metadata, semantics and ontologies. Singapur: World Scientific Publishing Company, pp. 63–88.
11.
Ochoa, Xavier; Duval, Erik (2009). Automatic evaluation of metadata quality in digital repositories. International Journal on Digital Libraries, vol. 10, issue 2, pp. 67–91.
12.
Olson, Jack E. (2003). Data quality: the accuracy dimension. San Francisco: Morgan Kaufmann Publishers.
13.
Park, Jung-Ran (2009). Metadata quality in digital repositories: a survey of the current state of the art. Cataloging & Classification Quarterly, vol. 47, issue 3–4, pp. 213–228.
14.
Riley, Jennifer (2004). Understanding metadata. Bethesda: National Information Standards Organization.
http://www.niso.org/publications/press/UnderstandingMetadata.pdf (odczyt: 04.05.2017).
15.
Riva, Pat; Bœuf, Patrick, Le; Žumer, Maja (2016). FRBR-Library Reference Model. https://www.ifla.org/files/assets/cataloguing/frbr-lrm/frbr-lrm_20160225.pdf (odczyt: 04.05.2017).
16.
Stvilia, Besiki; Gasser, Les; Twidale, Michael B.; Smith, Linda C. (2007). A framework for information quality assessment. Journal of the American Society for Information Science and Technology, vol. 58, issue 12, pp. 1720–1733.
17.
Tani, Alice; Candela, Leonardo; Castelli, Donatella (2013). Dealing with metadata quality: the legacy of digital library efforts. Information Processing & Management, vol. 49, issue 6, pp. 1194–1205.
18.
Terminy metadanych DCMI (2009).
http://www.bn.org.pl/download/document/1253606451.pdf (odczyt: 04.05.2017).
19.
Urban, Richard J. (2014). The 1:1 principle in the age of linked data. International conference on Dublin Core and metadata applications.
http://dcpapers.dublincore.org/pubs/article/view/3707%5Cnhttp://dcpapers.dublincore.org/pubs/article/download/3707/1930 (odczyt: 04.05.2017).
20.
Van Hooland, Seth (2009). Metadata quality in the cultural heritage sector: stakes, problems and solutions. http://homepages.ulb.ac.be/~svhoolan/these.pdf (odczyt: 04.05.2017).
21.
Van Hooland, Seth; Verborgh, Ruben (2014). Linked data for libraries, archives and museums: how to clean, link and publish your metadata. London: Facet Publishing.
22.
White, Ryen W.; Roth, Resa A. (2009). Exploratory search: beyond the query-response paradigm. Synthesis lectures on information concepts, retrieval, and services. San Rafael: Morgan & Claypool Publishers.
Aneta Januszko-Szakiel
Instytut Informacji Naukowej i Bibliotekoznawstwa,
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Zarządzanie bezpieczeństwem informacji
w sektorze MŚP – diagnoza i rekomendacje
Information security management in the SME sector – diagnosis and recommendations
Słowa kluczowe: bezpieczeństwo informacji, diagnoza bezpieczeństwa informacji, informacja
w przedsiębiorstwie, ochrona informacji biznesowej, zarządzanie bezpieczeństwem informacji.
Keywords: business information protection, diagnosis of information security, enterprise information,
information security, information security management.
Abstrakt
Za cel badań przyjęto próbę ustalenia, czy i w jaki sposób przedsiębiorstwa innowacyjne zapewniają ochronę strategicznym zasobom informacji. W warstwie teoretycznej rozważań zdefiniowano podstawowe pojęcia dotyczące bezpieczeństwa informacji w przedsiębiorstwie. Warstwę empiryczną natomiast stanowi relacja z wywiadu diagnostycznego w trzech wybranych przedsiębiorstwach sektora małych i średnich przedsiębiorstw (MŚP), w toku którego starano się zidentyfikować faktyczne procedury i działania na rzecz przeciwdziałania ewentualnej nieuprawnionej zmianie, niepożądanemu wykorzystaniu, zniszczeniu, utracie istotnych informacji. Z diagnozy wynika, że zarządzanie bezpieczeństwem informacji w badanych organizacjach wymaga usprawnień. Materiał badawczy pozwolił sformułować wnioski i rekomendacje dotyczące zarządzania bezpieczeństwem informacji. W działania naprawcze należy włączyć menedżerów informacji, którzy zajmą się edukacją kadry, audytem zastanego systemu zarządzania informacją, opracują, pomogą wdrożyć i udoskonalić prototyp systemu zarządzania bezpieczeństwem informacji w firmie.
Abstract
The purpose of the study was to determine whether and how innovative companies provide protection for key information resources. In the theoretical part of the discussion the basic concepts of information security in an enterprise were defined. The practical part is the result of the diagnostic interview in three selected SMEs, in which efforts were made to identify actual procedures and actions reducing possible unauthorized changes, undesirable use, destruction or loss of relevant information. The diagnosis shows that the management of information security in the researched institutions requires improvement. The research material provided the basis for formulating conclusions and recommendations regarding information security management. Corrective actions should incorporate information management professionals who will audit the existing information management system, and educate staff in this area; they will also develop, implement and improve the prototype of the information security management model within the company.
Wprowadzenie
Informacja ma status zasobu kluczowego przedsiębiorstw (Łuczak, Tyburski, 2010; Materska, 2007; Wójcik, 2016). Bez względu na to, czy jest utrwalona w dokumencie papierowym, elektronicznym, komputerowej bazie danych, czy zdeponowana w umysłach pracowników, powinna być kompleksowo zarządzana, między innymi podlegać stabilnej ochronie (PN-ISO/IEC 27002:2014-12; Wójcik, 2016, s. 34). W całym cyklu życia, od fazy wytworzenia po użytkownie, informacja może ulec utracie, zniszczeniu, zafałszowaniu (Łuczak, Tyburski, 2010, s. 17).
Stoję na stanowisku, że problematyka zarządzania bezpieczeństwem informacji powinna stać się kwestią pierwszoplanową, szczególnie w organizacjach innowacyjnych, wytwarzających samodzielnie lub kupujących wyniki prac badawczo-rozwojowych, receptury nowatorskich produktów, specyfikacje procesów ich wytwarzania, prototypy, nieopatentowaną wiedzę techniczną, know how, myśl techniczną. Z trzyletniego okresu współpracy z sektorem biznesu wynoszę przekonanie, że rodzimi przedsiębiorcy mają aspiracje, potencjał i motywację do podejmowania działalności innowacyjnej na rzecz budowania swojej konkurencyjności i przewagi rynkowej. Niestety tylko nieliczni z nich są świadomi generowania w toku prac badawczo-rozwojowych kapitału informacyjnego o dużym znaczeniu merytorycznym i wartości bilansowej oraz, że operują informacjami o charakterze poufnym, które stanowią tajemnicę przedsiębiorstwa i powinny podlegać ochronie.
Ciekawość poznawcza i asumpt do badań wyniknęły z powiązania faktu, że wybrane małopolskie przedsiębiorstwa z sukcesem zrealizowały zadania badawczo-rozwojowe, w których efekcie weszły w posiadanie ważnych zasobów informacji i wiedzy technicznej, z wynikami badań PricewaterhouseCoopers (PwC) nt. bezpieczeństwa informacyjnego przedsiębiorstw i konstatacji, że „dla wielu przedsiębiorstw bezpieczeństwo wciąż nie jest jednym z podstawowych elementów strategii biznesowej i nie stanowi wysokiego priorytetu dla zarządu ani znaczącej pozycji w budżecie” (Bezpieczne informacje, 2014). Przyjęłam zatem za cel badań, po pierwsze, testowe zdiagnozowanie stanu bezpieczeństwa informacji wygenerowanych w toku prac badawczo-rozwojowych (B+R) w trzech przedsiębiorstwach sektora małych i średnich przedsiębiorstw (MŚP) wraz z rozpoznaniem, jaki poziom świadomości i kompetencji w zakresie zarządzania bezpieczeństwem tych informacji reprezentują ich przedstawiciele. Po drugie, postanowiłam porównać stan stwierdzony w diagnozie ze stanem oczekiwanym w kontekście przygotowania przedsiębiorstw do ewentualnego wdrożenia strategii zarządzania bezpieczeństwem informacji zgodnym lub zbliżonym do wymagań normy ISO 27001 Technika informatyczna – Techniki bezpieczeństwa – Systemy zarządzania bezpieczeństwem informacji – Wymagania (PN-ISO/IEC 27001:2014-12). Atrybuty stanu oczekiwanego sformułowałam, uwzględniając przede wszystkim wymienioną normę, ale także zalecenia znawców przedmiotu i treści aktów prawnych regulujących różne aspekty postępowania z informacją, także w przedsiębiorstwach.
Do diagnozy przystąpiłam z zamiarem rozpoznania, czy stan bezpieczeństwa informacji w badanych organizacjach jest:
−
zadowalający; nie wymaga zmian, podlega tylko rewizji okresowej,
−
dopuszczalny, z zaleceniem korekty na rzecz udoskonalenia efektywności przyjętej strategii,
−
nieakceptowalny, z powodu albo zupełnego braku strategii zarządzania bezpieczeństwem informacji albo zdiagnozowanej dysfunkcji strategii przyjętej.
Opracowanie składa się z trzech części głównych, w których przedstawiam:
−
zagadnienia podstawowe bezpieczeństwa informacji,
−
relacje z autorskiego badania diagnostycznego,
−
wnioski i rekomendacje wdrożeniowe dotyczące zarządzania bezpieczeństwem informacji w zakresie niezbędnym dla zagwarantowania elementarnego poziomu bezpieczeństwa informacji w przedsiębiorstwie.
Części uzupełniające to wprowadzenie i bibliografia.
Reguły przyjęte w procesie diagnostycznym zamieszczam w drugiej części głównej tekstu przed omówieniem materiału badawczego.
Bezpieczeństwo informacji w przedsiębiorstwie
Jednym z celów przedsiębiorstw jest funkcjonowanie w poczuciu bezpieczeństwa rozumianego jako stan niezagrożenia, spokoju, pewności (Dubisz, 2003, s. 234), niezakłóconego dostępu do potrzebnych zasobów.
Bezpieczeństwo informacji to element składowy całościowego bezpieczeństwa organizacji, czyli bezpieczeństwa fizycznego, osobowo-organizacyjnego, prawnego i informatycznego (Łuczak, Tyburski, 2010, s. 234). Pojęcie to obejmuje zarówno bezpieczeństwo informacji przetwarzanych w systemach teleinformatycznych, jak i bezpieczeństwo informacji występujących poza systemami, w postaci dokumentów papierowych, mikrofilmów, w postaci zapamiętanej i wymienianej przez człowieka bezpośrednio lub za pomocą środków łączności (Białas, 2006, s. 27). Wszelkie czynności podejmowane na rzecz ochrony informacji koncentrują się na zapewnieniu jej ciągłej i niezakłóconej poufności, integralności i dostępności (Białas, 2006, s. 482-483). Ochrona tych trzech atrybutów stanowi trzon dla budowy strategii bezpieczeństwa informacji. Dodatkowo, w niektórych źródłach zwraca się uwagę na ochronę takich własności informacji jak rozliczalność, autentyczność, niezawodność, funkcjonalność, zrozumiałość (Białas, 2006, s. 482-483; Łuczak, Tyburski, 2010, s. 19).
Poufność jest zapewniona wówczas, gdy informacja jest dostępna wyłącznie dla osób, podmiotów i procesów uprawnionych, na podstawie posiadanych przez nie odpowiednich praw dostępu (PN-ISO/IEC 27001:2014-12). Cel podstawowy procesu ochrony poufności to niedopuszczenie do nieautoryzowanego ujawnienia informacji (Białas, 2006, s. 482). Do utraty poufności może dojść np. podczas niszczenia, kopiowania, przechowywania, modyfikowania oraz rozpowszechniania informacji (Łuczak, Tyburski, 2010, s. 22). Ochrona poufności jest podyktowana albo wymogami prawnymi, albo potrzebą ochrony tajemnicy handlowej, interesami przedsiębiorstw.
Poufność zapewnia się poprzez szyfrowanie danych, procedury uwierzytelniania, ograniczenia uprawnień dostępu, ograniczenia fizycznego dostępu do np. systemu komputerowego, pomieszczenia archiwum. Z uwagi na to, że bardzo częstym zagrożeniem dla zasobów wiedzy i informacji są ludzie oraz ich nieuświadomione błędy i pomyłki bądź celowe niszczenie, modyfikowanie lub przekazywanie haseł dostępu do informacji osobom nieuprawnionym (Materska, 2007, s. 281; Wójcik, 2016, s. 52; Żebrowski, 2004, s. 421-446) systemy ochrony zasobów informacji powinny umożliwić wykrycie prób i przypadków takich naruszeń (Łunarski red, 2006, s. 71). Po ustaleniu, jakie informacje mają charakter poufny, opracowuje się i wprowadza do stosowania zasady postępowania z taką informacją. Jedną z nich jest oznaczanie informacji w celu identyfikacji stopnia poufności. Oznaczenie wskazuje, kto może powielać treść informacji poufnych, w jakiej formie i gdzie są przechowywane; komu, na jakiej podstawie i w jakim miejscu mogą zostać udostępnione oraz w jakim zakresie można posłużyć się informacją poufną (Łuczak, Tyburski, 2010, s. 23).
Integralność natomiast to zapewnienie, że ani zasób informacji, ani system, w którym zasób jest zdeponowany, nie zostały zmienione lub zniszczone w sposób nieautoryzowany. Eliminuje się umyślne lub nieumyślne nieautoryzowane zmiany informacji, w których wyniku informacja może zostać zafałszowana, utracić autentyczność, kompletność. Niezbędne jest identyfikowanie wszystkich osób, które mają dostęp do informacji (Łuczak, Tyburski, 2010, s. 27). Integralność może zostać naruszona przez celowe działanie nieuprawnionego użytkownika, błędy i zaniedbania uprawnionego użytkownika, wirusy komputerowe lub inne programy szkodliwe, awarie sprzętu, kanałów komunikacyjnych, zasilania, błędy oprogramowania. Chroniony zasób powinien być autentyczny, to jest dokładnie taki, jaki został zadeklarowany przez jego twórców (Bilski, 2008, s. 424; Kriterienkatalog, 2006). Integralność i autentyczność chroni się głównie poprzez kontrolę dostępu i unikatowe systemy identyfikowania wszystkich osób mających dostęp do informacji (Łuczak, Tyburski, 2010, s. 27).
Dostępność informacji oznacza zapewnienie, że osoba uprawniona uzyska wgląd w jej treść zawsze, gdy zachodzi taka potrzeba. Utrata dostępności do zasobów informacji może prowadzić do zaburzenia ciągłości działania firmy oraz do braku informacyjnego wsparcia procesów decyzyjnych (Łuczak, Tyburski, 2010, s. 27-28). Informacje dostępne powinny również nadawać się do zastosowania (PN-ISO/IEC 27001:2014 – 12, s.12).
Istotną własnością bezpieczeństwa informacji podlegającą ochronie jest też rozliczalność, czyli jednoznaczne przypisanie działań określonemu i tylko temu podmiotowi (Białas, 2006, s. 34).
Poufność, integralność i dostępność wraz z pozostałymi przymiotami informacji mogą być chronione przy zastosowaniu całej gamy dostępnych metod, technik i narzędzi. Ich opis, choć z pewnością ważny i interesujący w kontekście podjętej diagnozy, nie został ujęty w niniejszych rozważaniach z racji założeń redakcyjnych dotyczących objętości. Istotne jednak jest, aby ich dobór był wynikiem starannej identyfikacji zagrożeń wewnętrznych i zewnętrznych, na które narażone są zasoby informacji w konkretnym przedsiębiorstwie. Podstawą skutecznej strategii zarządzania bezpieczeństwem informacji jest taka konstelacja procedur, technologii, czynności i przyrządów, która odeprze próby i ewentualne konsekwencje kradzieży danych lub sprzętów, włamań do systemu, złośliwego kodu, podsłuchu, awarii prądu. Uchroni przed nieświadomością pracownika, niestosowaniem regulaminów i instrukcji, przekroczeniem kompetencji, podejrzeniem lub umyślnym zniszczeniem informacji, chorobą pracownika, sabotażem, atakiem terrorystycznym, wybuchem, pożarem, katastrofą budowlaną, powodzią, wojną itp. (Łuczak, Tyburski, 2010, s. 263-269). Strategia zarządzania bezpieczeństwem informacji będzie różna w każdym przedsiębiorstwie. Odmienność będzie wynikać ze specyficznych wymagań wewnętrznych organizacji, odpowiednich zapisów ustawowych, oczekiwań klientów i umów z nimi zawieranych (PN-ISO/IEC 27001:2014-12, s. 7). Różnić się będą też rodzaje i koszty zaplanowanych zabezpieczeń adekwatnie do zidentyfikowanych indywidualnych zagrożeń oraz wartości gospodarczej zagrożonego zasobu (Białas, 2006, s. 15, 27; Bral, 2008, s. 166).
Bez względu na to, czy opracowywana strategia odnosi się do ochrony nadzwyczaj ważnych i drogich, czy też zwyczajnych, obiegowych informacji, jej autorzy powinni mieć na względzie treści obowiązujących aktów prawnych. Zestaw podstawowy obejmuje przepisy:
1.
Konstytucji Rzeczypospolitej Polskiej, w której jest mowa między innymi o ochronie danych osobowych:
„Nikt nie może być obowiązany inaczej niż na podstawie ustawy do ujawniania informacji dotyczących jego osoby. (…) Każdy ma prawo dostępu do dotyczących go urzędowych dokumentów i zbiorów danych. Ograniczenie tego prawa może określić ustawa. Każdy ma prawo do żądania sprostowania oraz usunięcia informacji nieprawdziwych, niepełnych lub zebranych w sposób sprzeczny z ustawą. Zasady i tryb gromadzenia oraz udostępniania informacji określa ustawa” (Konstytucja, 1997, Art. 51. Prawo ochrony danych osobowych).
2.
Ustawy o ochronie danych osobowych, w której ustawodawca:
„określa zasady postępowania przy przetwarzaniu danych osobowych oraz prawa osób fizycznych, których dane osobowe są lub mogą być przetwarzane w zbiorach danych. Ustawę stosuje się do przetwarzania danych osobowych: 1) w kartotekach, skorowidzach, księgach, wykazach i w innych zbiorach ewidencyjnych; 2) w systemach informatycznych, także w przypadku przetwarzania danych poza zbiorem danych” (Ustawa z dnia 29 sierpnia 1997 r., 2015, Art. 2. Przepisy ogólne).
oraz między innymi wskazuje na obowiązki osób administrujących danymi osobowymi:
„Administrator danych jest obowiązany zastosować środki techniczne i organizacyjne zapewniające ochronę przetwarzanych danych osobowych odpowiednią do zagrożeń oraz kategorii danych objętych ochroną, a w szczególności powinien zabezpieczyć dane przed ich udostępnieniem osobom nieupoważnionym, zabraniem przez osobę nieuprawnioną, przetwarzaniem z naruszeniem ustawy oraz zmianą, utratą, uszkodzeniem lub zniszczeniem. (…) Administrator danych prowadzi dokumentację opisującą sposób przetwarzania danych oraz środki, o których mowa w ust. 1” (Ustawa z dnia 29 sierpnia 1997 r., 2015, Art. 36. Zabezpieczenie danych osobowych).
„Administrator danych jest obowiązany zgłosić zbiór danych do rejestracji Generalnemu Inspektorowi ...” (Ustawa z dnia 29 sierpnia 1997 r., 2015, Art. 40. Rejestracja zbiorów danych osobowych oraz administratorów bezpieczeństwa informacji).
3.
Ustawy o rachunkowości, z której wynika, że:
„Jednostka powinna posiadać dokumentację opisującą w języku polskim przyjęte przez nią zasady (politykę) rachunkowości, a w szczególności dotyczące (…) systemu służącego ochronie danych i ich zbiorów ...” (Ustawa z dnia 29 września 1994 r., 2017, Art. 10. Prowadzenie ksiąg rachunkowych).
„Dokumentację (…), księgi rachunkowe, dowody księgowe, dokumenty inwentaryzacyjne i sprawozdania finansowe, zwane dalej także „zbiorami”, należy przechowywać w należyty sposób i chronić przed niedozwolonymi zmianami, nieupoważnionym rozpowszechnianiem, uszkodzeniem lub zniszczeniem. (…) Przy prowadzeniu ksiąg rachunkowych przy użyciu komputera ochrona danych powinna polegać na stosowaniu odpornych na zagrożenia nośników danych, na doborze stosownych środków ochrony zewnętrznej, na systematycznym tworzeniu rezerwowych kopii zbiorów danych zapisanych na informatycznych nośnikach danych, pod warunkiem zapewnienia trwałości zapisu informacji systemu rachunkowości, przez czas nie krótszy od wymaganego do przechowywania ksiąg rachunkowych, oraz na zapewnieniu ochrony programów komputerowych i danych systemu informatycznego rachunkowości, poprzez stosowanie odpowiednich rozwiązań programowych i organizacyjnych, chroniących przed nieupoważnionym dostępem lub zniszczeniem” (Ustawa z dnia 29 września 1994 r., 2017, Art. 71. Ochrona danych).
4.
Kodeksu pracy, którego autorzy nakazują pracownikowi:
„w szczególności: (…) dbać o dobro zakładu pracy, chronić jego mienie oraz zachować w tajemnicy informacje, których ujawnienie mogłoby narazić pracodawcę na szkodę; (…) przestrzegać tajemnicy określonej w odrębnych przepisach” (Ustawa z dnia 26 czerwca 1974 r., 2017, Art. 100. Obowiązki pracownika).
„(…) pracodawca i pracownik mający dostęp do szczególnie ważnych informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę, zawierają umowę o zakazie konkurencji po ustaniu stosunku pracy” (Ustawa z dnia 26 czerwca 1974 r., 2017,Art. 101. Zakaz konkurencji).
5.
Ustawy o zwalczaniu nieuczciwej konkurencji definiującej tajemnicę przedsiębiorstwa jako:
„(…) nieujawnione do wiadomości publicznej informacje techniczne, technologiczne, organizacyjne przedsiębiorstwa lub inne informacje posiadające wartość gospodarczą, co do których przedsiębiorca podjął niezbędne działania w celu zachowania ich poufności”.
„Czynem nieuczciwej konkurencji jest przekazanie, ujawnienie lub wykorzystanie cudzych informacji stanowiących tajemnicę przedsiębiorstwa albo ich nabycie od osoby nieuprawnionej, jeżeli zagraża lub narusza interes przedsiębiorcy” (Ustawa z dnia 16 kwietnia 1993 r., 2004, Art. 11. Czyny nieuczciwej konkurencji.
„Kto, wbrew ciążącemu na nim obowiązkowi w stosunku do przedsiębiorcy, ujawnia innej osobie lub wykorzystuje we własnej działalności gospodarczej informację stanowiącą tajemnicę przedsiębiorstwa, jeżeli wyrządza to poważną szkodę przedsiębiorcy, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat 2. (…) Tej samej karze podlega, kto, uzyskawszy bezprawnie informację stanowiącą tajemnicę przedsiębiorstwa, ujawnia ją innej osobie lub wykorzystuje we własnej działalności gospodarczej” (Ustawa z dnia 16 kwietnia 1993 r., 2004, Art. 23. Odpowiedzialność cywilna).
Ponadto ważna może okazać się znajomość zapisów ustawowych dotyczących ochrony informacji niejawnych, podpisu elektronicznego, ochrony praw autorskich i praw pokrewnych, elektronicznych instrumentów płatniczych, dostępu do informacji publicznej, świadczenia usług drogą elektroniczną.
Poza aktami prawnymi, wytycznych, do których powinni odnieść się przedsiębiorcy, opracowując strategię zarządzania bezpieczeństwem informacji, dostarcza rodzina standardów ISO/IEC 27000. Szczególnie pomocne powinny okazać się zalecenia normy PN-ISO/IEC 27001:2014-12 Technika informatyczna – techniki bezpieczeństwa – systemy zarządzania bezpieczeństwem informacji – wymagania. Norma zawiera wytyczne dla systemu zarządzania bezpieczeństwem informacji oraz wskazówki, jak go utrzymać i rozwijać adekwatnie do zmieniających się warunków otoczenia. Autorzy normy odnoszą się do niezbędnych kompetencji i zalecają, aby osoby wykonujące określone zadania legitymowały się adekwatnym wykształceniem oraz doświadczeniem (PN-ISO/IEC 27001:2014-12). Znawcy tematu odsyłają również do norm PN-ISO/IEC 27002:2014-12, PN-ISO/IEC 27006:2016-12 zawierających podpowiedzi dla tworzenia własnych wytycznych polityki bezpieczeństwa informacji spójnej z polityką bezpieczeństwa firmy, uwzględniając specyfikę i wielkość organizacji. Firmy mogą i powinny rozwijać własne standardy bezpieczeństwa informacji i efektywnego zarządzania nimi. Powinny również znać wymogi audytu i certyfikacji systemów zarządzania bezpieczeństwem informacji. Celem tych działań jest przede wszystkim zabezpieczenie własnych zasobów informacji, ale również budowanie zaufania w kontaktach pomiędzy instytucjami, które powierzają sobie swoje zasoby informacyjne lub je współdzielą (Łuczak, Tyburski, 2010, s. 59-60). Wykaz wszystkich możliwych korzyści z ochrony informacji jest bardzo obszerny (Łuczak, Tyburski, 2010, s. 50-53). Uważam, że wartość nadrzędną należałoby przypisać samemu podjęciu tematu bezpieczeństwa informacji w firmie, opracowaniu i wdrożeniu strategii ich ochrony, choćby w podstawowym zakresie i prototypowej formie, oraz przekonaniu zarządców i pracowników o możliwościach ich wpływu na zdarzenia dotyczące organizacji i jej zasobów, także informacyjnych.
Zarządzanie bezpieczeństwem informacji w przedsiębiorstwach sektora MŚP – diagnoza trzech przypadków
W podjętej diagnozie starałam się uzyskać wiarygodne informacje o faktycznym stanie bezpieczeństwa zasobów informacyjnych w wybranych firmach. Zastosowana procedura diagnostyczna umożliwiła również wyjaśnienie podłoża zastanej sytuacji oraz sformułowanie prognoz dotyczących ewentualnych konsekwencji jej utrzymywania.
Diagnoza miała miejsce w maju 2017 roku w siedzibach trzech małopolskich przedsiębiorstw. Narzędzie badawcze stanowił autorski formularz diagnostyczny ujmujący piętnaście cech pożądanych bezpieczeństwa informacji. Poszczególne cechy nie były wartościowane; nie przypisywałam im ani ocen, ani współczynników ważności. Starałam się jedynie stwierdzić i zarejestrować albo ich występowanie (oznaczane słowem „TAK”), albo ich brak (oznaczany słowem „NIE”) (tab. 1). Informacje o poszczególnych cechach pozyskałam w toku wywiadu diagnostycznego prowadzonego według dyspozycji korespondujących ściśle z identyfikowanymi cechami.
Analiza umożliwiła poznanie nastawienia przedsiębiorców oraz ocenę stopnia przygotowania przedsiębiorstw do zadań opracowania i wdrożenia strategii zarządzania bezpieczeństwem informacji korespondującej z normą ISO 27001 oraz nakazami ustawodawców. Dostarczyła punkt wyjścia dla sporządzenia podstawowego zestawu zaleceń, których zastosowanie powinno zagwarantować akceptowalny, w świetle wymogów ustawowych oraz aktualnych standardów, poziom ochrony poufności, integralności i dostępności zasobów informacji w przedsiębiorstwach.
Tabela 1. Formularz diagnozy stanu bezpieczeństwa informacyjnego trzech małopolskich przedsiębiorstw
Lp.
Diagnozowana cecha
Instytucja A
mikroprzedsiębiorstwo
Instytucja B
małe przedsiębiorstwo
Instytucja C
średnie przedsiębiorstwo
1
Szacowanie wartości gospodarczej informacji
NIE
NIE
NIE
2
Klasyfikowanie informacji
TAK
NIE
NIE
3
Oznaczanie informacji
TAK
NIE
NIE
4
Opracowanie i wdrożenie procedur postępowania z zasobem strategicznym
TAK
NIE
TAK
5
Podpisywanie umowy o zachowaniu poufności z pracownikami
TAK
NIE
NIE
6
Podpisywanie umowy o zachowaniu poufności z kontrahentami
TAK
NIE
TAK
7
Podejmowanie tematu bezpieczeństwa informacji, np. na zebraniach z pracownikami
TAK
NIE
TAK
8
Udział w szkoleniach wewnętrznych lub zewnętrznych z zakresu bezpieczeństwa informacji
TAK
NIE
TAK
9
Nadawanie pracownikom uprawnień dostępu do zasobów informacji
TAK
NIE
TAK
10
Funkcjonowanie archiwum (kancelarii) tajnej
NIE
NIE
NIE
11
Opracowanie i wdrożenie polityki bezpieczeństwa organizacji
TAK
NIE
TAK
12
Opracowanie i wdrożenie polityki bezpieczeństwa informacji
TAK
NIE
NIE
13
Identyfikowanie zagrożeń dla poufności, integralności i dostępności informacji
TAK
NIE
NIE
14
Wydzielenie budżetu na ochronę informacji
TAK
NIE
NIE
15
Zatrudnienie menedżera informacji
NIE
NIE
NIE
Źródło: oprac. własne.
Relacja z diagnozy w przedsiębiorstwie A
Pierwsza diagnozowana instytucja to mikroprzedsiębiorstwo. Status ten wynika z liczby zatrudnionych pracowników (dziesięć osób) oraz wartości rocznego obrotu. Przedsiębiorstwo funkcjonuje od 2012 roku i działa w branży odszkodowań. Zatrudnia przede wszystkim osoby z wykształceniem prawniczym. Oferuje doradztwo prawne osobom poszkodowanym w wypadkach komunikacyjnych oraz usługi w dochodzeniu odszkodowań majątkowych. Przedsiębiorstwo przygotowuje się do wdrożenia innowacyjnego rozwiązania, opracowanego w 2016 roku we współpracy z sektorem nauki i badań. Firmą kierują prezes oraz dyrektor zarządzający. Respondentem w wywiadzie był pracownik odpowiedzialny za zarządzanie danymi osobowymi. W toku badania do rozmowy przyłączyła się prezes firmy.
Pod pojęciem bezpieczeństwa informacji rozmówca rozumie „czynności mające na celu zabezpieczenie informacji, baz danych, które firma przetwarza. Jedną z takich czynności jest zabezpieczenie dostępu do bazy klientów; (…) każdy pracownik w firmie ma dostęp do bazy danych na podstawie przydzielonego hasła”. Wewnętrzna baza kontaktów z klientami to kluczowy zasób informacji w firmie. Jej utrata, w wyniku zniszczenia, wykradzenia, nieautoryzowanej modyfikacji, byłaby dla firmy szczególnie dotkliwa. „Druga czynność to zabezpieczenie teczek, w których znajdują się oryginalne papierowe dokumenty klientów i ich spraw o odszkodowanie. Są w nich dane osobowe klientów, które w rozumieniu ustawy o ochronie danych osobowych są danymi wrażliwymi i powinny być zabezpieczone”. Każdy papierowy dokument przechowywany w teczkach klientów jest zdigitalizowany i przechowywany w bazie danych przedsiębiorstwa, a dodatkowa kopia zabezpieczona na serwerze. „W przypadku utraty informacji przechowywanych w teczkach klientów istnieje możliwość zawnioskowania do ubezpieczyciela o akta szkodowe sprawy. Specyfika branży odszkodowawczej jest taka, że pakiet dokumentów jest również przechowywany w towarzystwie ubezpieczeniowym”.
Analizowana firma nie podejmowała dotychczas prób wyceny informacji, które posiada. Respondent jest zdania, że byłoby to naprawdę trudne. Dzieli się jednak pomysłem, aby przy wycenie informacji „przyjąć za miernik czas pracy potrzebny do zgromadzenia danych, do odtworzenia tych dokumentów”.
W firmie jest praktykowane klasyfikowanie dokumentów podczas ich ewidencji. Zabezpiecza się dokumenty ze statusem „szczególnie chronione”. Wiele z nich zawiera informacje, które stanowią tajemnicę przedsiębiorstwa. Są to między innymi instrukcje wewnętrzne dotyczące działania firmy. Taki zasób chroni się przed fizyczną degradacją i dostępem osób nieupoważnionych. W firmie nie ma osobnego pomieszczenia o charakterze archiwum (określanego również jako tajna kancelaria). Została wydzielona strefa wewnętrzna, po której poruszają się tylko pracownicy. W jej granicach znajduje się gabinet dyrektora zarządzającego, a w nim zamykana szafa o charakterze depozytu dla najważniejszych dokumentów. Zadaniem pracownika portierni jest dopilnowanie, aby osoby postronne, klienci firmy, zapraszani goście, przebywali tylko we wskazanych miejscach i w obecności pracowników.
Temat bezpieczeństwa informacji był podejmowany w badanej organizacji niejednokrotnie, z inicjatywy zarządu. Odbywały się również wewnętrzne szkolenia dotyczące postępowania z zasobami informacji i dokumentami. Wytyczne w tym zakresie opracowuje i wprowadza do stosowania dyrektor zarządzający. Wszyscy pracownicy podpisują klauzulę poufności. Dotyczy ona głównie ochrony danych osobowych. Podczas szkoleń i zebrań pracownicy są obligowani do poufności wobec spraw typowo firmowych. Oznacza to, że nie powinni poza miejscem pracy rozmawiać o klientach i ich sprawach, również o zasadach funkcjonowania i zarządzania firmą.
W przedsiębiorstwie miały miejsce incydenty związane z bezpieczeństwem informacji. W jednym przypadku agresorem okazał się pracownik, który wyprowadził poufne dokumenty z gabinetu dyrektora. Od tamtego czasu zwraca się szczególną uwagę na dostępność informacji i dokumentów. Została opracowana i wdrożona instrukcja postępowania ze strategicznym zasobem informacji. Inne negatywne doświadczenie spowodowało decyzję o zatrudnieniu pracownika ochrony.
Przedsiębiorstwo zatrudnia informatyka, który odpowiada za administrowanie bazami danych oraz za politykę bezpieczeństwa informacji w postaci cyfrowej. Z jego inicjatywy wszyscy pracownicy zostali pisemnie upoważnieni do przetwarzania danych. Zarząd zdecydował się również podpisać umowę o partnerstwie z firmą zewnętrzną, której mogą zostać powierzone najważniejsze dokumenty w celu ich przechowania w miejscu geograficznie oddalonym od siedziby firmy.
Roczny udział wydatków firmy na bezpieczeństwo wynosi około 30% budżetu. W firmie jest znana norma ISO 27001. Nie jest wdrożona, ale wybrane procedury zostały uwzględnione w dokumentach dotyczących bezpieczeństwa informatycznego oraz obowiązujących procedurach funkcjonowania firmy.
Pomimo że w diagnozowanym przedsiębiorstwie są przechowywane wyniki prac badawczo-rozwojowych, które niewątpliwie stanowią zasób podlegający szczególnej ochronie, rozmówca nie wspomniał o nich. Poproszony o wskazanie dwóch przykładów informacji (zasobów informacyjnych), które są w firmie szczególnie ważne i których utrata (zniszczenie, zaginięcie, wykradzenie, modyfikacja treści) spowodowałaby negatywne konsekwencje zarówno dla celów operacyjnych, jak i strategicznych firmy, respondent nie „dotknął” tematu realizacji zadań badawczo-rozwojowych i przygotowań do wdrożenia innowacyjnych usług. Objawia się w ten sposób, prawdopodobny, niski poziom świadomości dotyczącej znaczenia i rynkowej wartości pozyskanych wyników prac B+R. Można również zakładać, że swoją postawą rozmówca zaświadcza o obowiązującej go klauzuli poufności.
Zgromadzony wywiad oraz możliwy na etapie diagnozy ogląd warunków, w jakich działa firma, dał podstawę do przyznania systemowi bezpieczeństwa informacji oceny dopuszczalnej, z zaleceniem korekty na rzecz udoskonalenia efektywności przyjętej strategii. Najważniejsze zalecane zmiany to:
−
wydzielenie osobnego pomieszczenia na cele archiwum, odpowiednio zamykanego i monitorowanego,
−
przydzielenie praw dostępu do archiwum wybranym osobom,
−
szacowanie wartości kluczowych informacji, w celu np. ich ubezpieczenia.
Relacja z diagnozy w przedsiębiorstwie B
Druga badana instytucja plasuje się w kategorii przedsiębiorstw małych. Działa od dwudziestu lat i zatrudnia czterdzieści osiem osób. Zajmuje się produkcją i dystrybucją artykułów gospodarstwa domowego na rynek krajowy i zagraniczny. Specjalizuje się w galanterii kuchennej. Na podstawie podejmowanej działalności innowacyjnej firma legitymuje się kilkoma patentami, prawami ochronnymi i prawami z rejestracji. Innowacyjne produkty opracowuje zarówno samodzielnie, jak i w ramach współpracy z instytucjami nauki i badań. W fazie opracowania znajdują się kolejne dwa innowacyjne rozwiązania, które stanowią tajemnicę przedsiębiorstwa. W wywiadzie diagnostycznym wypowiadał się właściciel instytucji, pełniący funkcję dyrektora zarządzającego.
Pojęcie bezpieczeństwa informacji kojarzy się rozmówcy z zabezpieczeniem zasobów kluczowych, czyli takich, które decydują o przewadze konkurencyjnej na rynku. Szczególnie odczuwalna byłaby w badanej firmie utrata „informacji handlowych dotyczących odbiorców, osób decydujących o zamówieniach u naszych odbiorców, obrotów generowanych na podstawie współpracy z danymi klientami, produktów, jakimi klienci są zainteresowani. Także dane dotyczące dostawców, receptur produktów, (…) informacje dotyczące procesu produkcyjnego, metod i technologii wykonania produktów, (…) nowych projektów, które planujemy wdrożyć w firmie, (…) zasobów ludzkich, osób kluczowych w firmie. Są to w większości informacje i dane zakodowane w systemie komputerowym firmy. Częściowo rozrzucone w plikach po komputerach pracowników. Kopia zapasowa jest; dane są zapisywane i archiwizowane w dodatkowym dysku na terenie firmy”. W diagnozowanym przedsiębiorstwie nie korzysta się z usług chmurowych. Rozmówca rozważa takie rozwiązanie, ale przyznał, że nie ma zaufania do serwerów chmurowych i do dostawców tego typu usług. Nie oddałby im na przechowanie dokumentów poufnych z obawy przed nieupoważnionym wglądem w ich treść.
Temat szacowania wartości informacji okazał się dla rozmówcy nowy. Dotychczas informacje nie były wyceniane i rozmówca nie zastanawiał się, ile są warte wyniki prac badawczo-rozwojowych, które firma posiada i na których podstawie wdraża na rynek innowacyjne produkty. Jest jednak przekonany, że stanowią one zasób przedsiębiorstwa, który należy uznać za tajemnicę.
Informacje napływające do firmy nie są segregowane i oznaczane. W firmie nie obowiązuje strategia zarządzania takim zasobem jak informacja. Respondent przyznał, że faktycznie ważnych, poufnych dokumentów, dotyczących opracowywanych i wdrażanych innowacji jest w firmie coraz więcej i warto zastanowić się nad objęciem ich ochroną.
W diagnozowanej firmie nie podejmowano dotychczas tematu bezpieczeństwa informacji. Nie korzystano z żadnych szkoleń z tego zakresu. Nie ma stanowiska pracy i osoby, do której obowiązków należałoby zarządzanie informacjami i ich ochrona. Respondent nie widzi na tym etapie rozwoju firmy potrzeby zatrudniania takiej osoby. W firmie nie została opracowana instrukcja postępowania z zasobem informacyjnym firmy. On sam jako właściciel i zarządca wprowadza niepisane zwyczaje postępowania z informacją, odpowiada za obieg i bezpieczeństwo informacji oraz dokumentów. Firma, w jego opinii, nie operuje aż taką ilością informacji poufnych, aby tworzyć nowe stanowisko dedykowane obowiązkom zarządzania i ochrony informacji.
Pracownicy badanej instytucji nie są obligowani do podpisywania klauzuli poufności. Uczestnik badania, po chwili rozmowy na temat ewentualnych negatywnych skutków niereglamentowanego dostępu wszystkich pracowników do poufnych informacji, skomentował, że warto to zrobić, ale tylko z wybranymi pracownikami. Nie wydaje mu się potrzebne podpisywanie takiej klauzuli z wszystkimi zatrudnionymi osobami; „to nie są priorytety”. Pomysł szkolenia kadry z zakresu zarządzania informacjami wydał mu się słuszny i zasygnalizował, że rozbuduje budżet szkoleniowy na kolejny rok, uwzględniając w nim instruktaż z zakresu bezpieczeństwa informacji. Skomentował równocześnie, że na ten rok zaplanował inne, ważniejsze w jego opinii, szkolenia. Chętnie natomiast zamówi ekspertyzę i opracowanie strategii zarządzania bezpieczeństwem informacji. Respondent nie jest zainteresowany wdrożeniem normy ISO 27001, ale wyraża chęć poznania wybranych zaleceń i potraktowania ich jako źródło inspiracji w opracowaniu i włączeniu wytycznych do praktyki własnej firmy.
Pomimo że diagnozowane przedsiębiorstwo działa od dwudziestu lat, nie odnotowało dotychczas incydentów dotyczących bezpieczeństwa informacji. Właściciel ma świadomość istnienia konkurencji i jej działań. Niejednokrotnie identyfikował i rozstrzygał przed odpowiednimi urzędami fakty podrabiania wzorów produktów, tuż po ich wprowadzeniu na rynek. Jednak fakt wykradzenia informacji bezpośrednio z siedziby firmy nie miał miejsca.
W firmie nie ma archiwum. Informacje dotyczące innowacji wdrożonych i opracowywanych są składowane w segregatorach rozlokowanych w różnych pomieszczeniach firmy nieprzeznaczonych wyłącznie na te cele. Najważniejsze informacje i tajemnice firmy są „ukryte” w głowie rozmówcy. Jego zdaniem trudno byłoby komuś obcemu pozyskać wartościową informację z tak bardzo rozporoszonego zasobu. Nad najnowszymi projektami i wdrożeniami czuwa on osobiście. Respondent nie obawia się również wycieku informacji na etapie ich udostępnienia pracownikom działu produkcji. Uzasadnia to zaufaniem do pracowników i małą rotacją. Ludzie są związani z firmą od wielu lat i to daje mu poczucie bezpieczeństwa.
Ryzyko utraty cennych informacji dotyczących wdrożeń innowacyjnych produktów jest w ocenie rozmówcy niewielkie. Jest jednak świadomy, że w wyniku każdej wdrożonej innowacji jego firma staje się przedmiotem zainteresowań i potencjalnych agresywnych zachowań konkurentów. Towarzyszy mu umiarkowana obawa związana z wykradzeniem innowacji przed ich opatentowaniem i wdrożeniem na rynek. W Polsce jest kilka firm, które mogłyby wykorzystać informacje o nowych autorskich technologiach. W bliskiej perspektywie przedsiębiorstwo wdroży serię produktów charakteryzujących się innowacyjnością o zasięgu światowym. Tu respondent widzi zagrożenie.
Jedno z zagadnień poruszonych w wywiadzie dotyczyło polityki bezpieczeństwa informacji. Respondent nie był pewien, czy w firmie jest taki dokument. Dopytany o informatyka przyznał, że zatrudnia osobę na tym stanowisku. On sam nie miał jednak świadomości, że opracowanie polityki bezpieczeństwa informacji mieści się w zakresie kompetencji i powinności pracowników odpowiedzialnych za obsługę informatyczną instytucji. Uczestnik badania odwołał się do przyjętej w firmie polityki jakości w ramach wdrożonej normy ISO 9001. Dokument wytycza standardy postępowania w sytuacji kryzysu.
Budżet na zapewnienie bezpieczeństwa w diagnozowanej firmie jest zdaniem rozmówcy niewielki. Nie ma on jednak wiedzy, jakie środki w jego firmie są na te cele faktycznie wydawane.
W toku wywiadu diagnostycznego została wywołana kwestia umów o zachowaniu poufności przez projektantów nowych wzorów i produktów. Pomimo że są to zazwyczaj podmioty zewnętrzne, właściciel firmy nie podpisuje z nimi umów o poufności. Współpracuje z tymi firmami i osobami fizycznymi od wielu lat na podstawie zaufania. Nie obawia niedyskrecji bądź złych zamiarów tych osób. Zagrożenie widzi natomiast w wymianie korespondencji mailowej. Informacje, które są przesyłane w treści wiadomości mailowych są naprawdę ważne i te łatwo mogą stać się przedmiotem inwigilacji.
W podsumowującej części rozmowy przedsiębiorca przyznał, że byłby gotowy i zainteresowany wytypowaniem najważniejszych zasobów informacji i objęciem ich strategią zapewnienia bezpieczeństwa. Uznał, że faktycznie warto zadbać o wybrane aspekty bezpieczeństwa, przyswoić wybrane procedury i postępować zgodnie z nimi.
Rozmówcy nie przekonał argument dotyczący audytów zlecanych przez ewentualnych partnerów biznesowych, dużych zleceniodawców, którzy przed decyzją o współpracy podejmują ocenę przyszłego partnera i badają różne aspekty jego działalności, także dotyczące poziomu bezpieczeństwa. Rozmówca ceni sobie niezależność. Sam dobiera partnerów do współpracy i nie obawia się zewnętrznych audytorów. Stabilna rynkowa pozycja nie zmusza go do przystawania na wszystkie dyktowane przez rynek warunki. Szanuje partnerów biznesowych, dużych odbiorców swoich produktów, i chętnie z nimi współpracuje, ale to nie oni wytyczają kierunki rozwoju jego firmy.
Z diagnozy wynika, że zastana sytuacja bezpieczeństwa informacji jest nieakceptowalna, z powodu zupełnego braku świadomości i jakichkolwiek zasad zarządzania bezpieczeństwem informacji. W przedsiębiorstwie tym występują liczne zagrożenia dla jego prawidłowego funkcjonowania. Zadaniem pilnym i pierwszoplanowym wydaje się objęcie firmy kompleksowym programem działań naprawczych, od budzenia świadomości po dopasowanie rozwiązań składających się na podstawowy pakiet bezpieczeństwa informacji.
Relacja z diagnozy w przedsiębiorstwie C
Trzeci wywiad diagnostyczny przeprowadziłam w przedsiębiorstwie średnim, funkcjonującym od ponad dwudziestu lat w branży budownictwa. Firma osiągnęła wysoką pozycję na rynku dzięki licznym autorskim zaawansowanym rozwiązaniom technologicznym oraz wynikom własnych i zamawianych prac badawczo-rozwojowych. W portfolio firmy znajdują się liczne obiekty wybudowane w kraju i zagranicą według wysoko ocenianych i nagradzanych technologii. Firma zatrudnia 110 osób. W skład zarządu wchodzą prezes oraz dwóch dyrektorów. Wywiadu zgodziła się udzielić główna księgowa, odpowiedzialna za obsługę finansową firmy oraz bezpieczeństwo informacji i dokumentów księgowych.
Respondentka odnosi termin „bezpieczeństwo informacji” zarówno do ochrony zasobu, który znajduje się w dziale księgowości, w segregatorach przechowywanych w zamkniętym pokoju, jak i do ochrony informacji i danych w wersji elektronicznej, którymi operują pracownicy w systemie i które „nie powinny zostać zhakowane”. Istotne jest również bezpieczeństwo serwera i programu z danymi wrażliwymi pracowników.
Zasoby, których utrata spowodowałaby negatywne konsekwencje dla firmy to przede wszystkim „wyniki negocjacji i warunki współpracy z dostawcami i odbiorcami, (…) bazy z danymi klientów, umowy, ceny, warunki współpracy”. Równie ważne są informacje o sytuacji finansowej firmy. „Wyciek informacji o miejscu i warunkach przechowywania akt osobowych i zatrudnieniu pracowników, ich dane osobowe, informacje o wykształceniu – to nie może się zdarzyć”. Dokumenty poufne papierowe znajdują się również w postaci skanów na dysku wewnętrznym firmy. Umowy z klientami, ważne ustalenia, są przechowywane na dysku, do którego dostęp mają wybrani pracownicy i zarząd. Wewnątrz firmy jest stosowana zasada, zgodnie z którą tylko upoważnione osoby posiadają dostęp do informacji. Decyzje w tym temacie podejmują prezes i dyrektorzy. Technicznie dostępem do dysku zarządza informatyk firmy.
Respondentka przyznaje, że w firmie nie ma zwyczaju wyceniania informacji. Próba oszacowania wartości nieopatentowanej wiedzy technicznej, stanowiącej własność firmy, została podjęta jeden raz, w obecności i na podstawie wiedzy oraz doświadczenia informatologa, specjalizującego się w transferze informacji naukowo-technicznej.
W badanym przedsiębiorstwie występują licznie zasoby informacji, które mają charakter tajemnicy przedsiębiorstwa. W celu ich ochrony podpisuje się aneksy do umów z klientami o zachowaniu poufności odnośnie do wszelkich informacji stanowiących tajemnicę przedsiębiorstwa. Pracowników natomiast zobowiązuje się do ochrony informacji na podstawie wewnętrznego regulaminu pracy. Pracownicy nie podpisują klauzuli poufności jako odrębnego dokumentu, ale rozmówczyni przyznała, że to dobry pomysł.
Prezes firmy podejmował na kilku zebraniach temat bezpieczeństwa informacji. Taki temat pojawia się zazwyczaj, gdy firma pracuje nad nowym projektem i przygotowuje autorskie rozwiązanie, które zanim zostanie zastosowane, podlega ochronie. Pracownicy są pouczani, z kim i w jakim zakresie mogą dzielić się informacją. Głównym decydentem w zakresie obiegu informacji wewnątrz oraz w otoczeniu przedsiębiorstwa jest zarząd. Najczęściej prezes wydaje dyspozycje, do kogo powinny trafić określone informacje i jakim środkiem przekazu. W firmie nie ma stanowiska pracy o nazwie „menedżer informacji” (lub podobnej). Jest jeden pracownik, który ewidencjonuje i segreguje informacje i dokumenty na podstawie wytycznych zarządu. Nie ma również wewnętrznego systemu oznaczeń poszczególnych dokumentów i informacji na wejściu do firmy, z którego wynikałoby, które z nich są oficjalne i do wiedzy wszystkich pracowników, a które mają charakter poufny i są dedykowane wybranym odbiorcom. W firmie nie ma wydzielonego pomieszczenia na archiwum. W kilku pokojach znajdują się zamykane szafy, do których klucze mają wybrane upoważnione osoby. Przechowuje się w nich raporty końcowe i dokumentację towarzyszącą zrealizowanym zleceniom i projektom. Jest to szczególnie ważny zasób firmy.
Poza rozmowami toczonymi podczas zebrań na temat poufności informacji dotyczących planowanych i zakończonych przedsięwzięć oraz bezpieczeństwa ogólnego, w diagnozowanej firmie nie organizowano dotychczas szkoleń z zakresu bezpieczeństwa informacji. Kluczową postacią w tym temacie jest informatyk, który korzysta ze szkoleń zewnętrznych i dzieli się swoją wiedzą z pracownikami. Rozmówczyni nie umiała odpowiedzieć na pytanie dotyczące funkcjonowania w przedsiębiorstwie polityki bezpieczeństwa informacji. Tymczasem, zgodnie z zaleceniami przedmiotowej normy ISO, polityka bezpieczeństwa informacji powinna być opracowana, zatwierdzona przez kierownictwo, opublikowana i zakomunikowana pracownikom i właściwym stronom zewnętrznym. Dopytany informatyk przyznał, że taki dokument nie został opracowany i wdrożony. On natomiast jest w firmie zatrudniony na umowę zlecenie.
W przedsiębiorstwie nie miały dotąd miejsca incydenty dotyczące bezpieczeństwa informacji. Nie zidentyfikowano przypadków włamania, kradzieży, utraty dokumentów, wycieku informacji. Jest to, w opinii respondentki, przede wszystkim wynik ochrony firmy przez zatrudnionego specjalistę do spraw bezpieczeństwa. W firmie jest wdrożony system bezpieczeństwa. Najważniejsze jego elementy to odpowiednie ogrodzenia, wewnętrzny i zewnętrzny monitoring, ochroniarz, dwa przeszkolone psy. Firma jest ochraniana w trybie ciągłym. Obowiązuje niepisana procedura poruszania się osób zewnętrznych po terenie firmy. Gości zaprasza się do wyznaczonych sal konferencyjnych. Kolejny czynnik uzasadniający niezakłócone funkcjonowanie firmy to stabilność zatrudnionej kadry. Śladowa fluktuacja sprawia, że pracownicy znają i rozumieją swoje obowiązki, darzą się zaufaniem, umieją współpracować. Pomocne są również zasady i wytyczne zarządu, których sprawny przekaz, zrozumienie i przede wszystkim konsekwentne stosowanie przez wszystkich zatrudnionych gwarantuje bezpieczeństwo i komfort pracy. Pracownicy nie otrzymują wykazu informacji, które podlegają szczególnej ochronie i stanowią tajemnicę przedsiębiorstwa, ale są instruowani, jak postępować w określonej sytuacji, w szczególności jak obchodzić się z dokumentami prawnymi, finansowymi. Rolę edukatora i kontrolera poprawności postępowania sprawuje główna księgowa. Szczególnie starannie instruowani i sprawdzani są pracownicy nowi.
Respondentka deklaruje, że w budżecie firmy jest kategoria kosztów „wydatki administracyjne” i w kategorii tej mieszczą się koszty związane z zapewnieniem bezpieczeństwa informacji. Nigdy nie zostało to dokładnie wyliczone, ale szacuje się, że od 3 do 5% rocznego budżetu przedsiębiorstwa przeznacza się na bezpieczeństwo firmy, w tym również na zabezpieczenie dokumentów i informacji.
Jedna z osób w firmie jest odpowiedzialna za zarządzanie jakością zgodnie z wdrożoną normą ISO 9001. Poproszona o przyłączenie się do rozmowy przyznała, że w firmie jest znana norma 27001, ale nie jest wdrożona. Pojęcie bezpieczeństwa informacji kojarzy się jej jako „ochrona danych osobowych, finansowa, informacji, know how”. Natomiast możliwości ochrony danych „(…) są różne: zamknięte pomieszczenia, blokowanie komputerów i serwerów, hasła”.
W wyniku diagnozy firmie można przyznać ocenę dopuszczalną, z zaleceniem korekty na rzecz udoskonalenia efektywności przyjętej strategii zarządzania bezpieczeństwem informacji. Temat szczególnie ważny to opracowanie polityki bezpieczeństwa informacji w sieci wewnętrznej. Z uwagi na rozmiar przedsiębiorstwa, pozycję w branży, obszerne zasoby nieopatentowanej wiedzy technicznej, firma powinna, samodzielnie lub z pomocą profesjonalistów, opracować i wdrożyć kompleksową strategię zarządzania bezpieczeństwem informacji. Zasadne jest również oszacowanie wartości tej wiedzy z uwagi na jej prawdopodobny potencjał komercjalizacyjny oraz zbadanie zdolności patentowej w kontekście jej stosownej ochrony.
Wnioski z diagnozy i rekomendacje wdrożeniowe
Podejmując się przedmiotowej diagnozy miałam na uwadze opinię specjalistów PwC o tym, że „(…) podwyższone ryzyko i rosnące zagrożenia wymagają, aby w organizacji uświadamiano sobie, że w dzisiejszych czasach ochrona wszystkich informacji na takim samym – priorytetowym – poziomie nie jest już realna ani nawet możliwa. W nowym modelu bezpieczeństwa biznes powinien zidentyfikować i przypisać odpowiednie znaczenie tym zbiorom informacji, które są najważniejsze dla działania organizacji” (Bezpieczne informacje, 2014, s. 14). Starałam się zatem metodą wywiadu ustalić, czy wyniki prac badawczo-rozwojowych, informacje i wiedza wynikające z działalności innowacyjnej, stanowią w diagnozowanych przedsiębiorstwach zbiór ważny, decydujący o powodzeniu działania organizacji, jej rynkowym sukcesie, pozycji wśród konkurentów. Celowo nie zadawałam pytania o ten zasób informacji wprost, chcąc wysondować, jaka jest jego pozycja, znaczenie w przedsiębiorstwach, nastawienie moich rozmówców do jego wartości. Niestety żaden uczestnik badania, proszony o wskazanie dwóch najważniejszych dla firmy zasobów informacji, nie wspomniał o tym zasobie informacji w ogóle. Jedynie właściciel przedsiębiorstwa B wypowiadał się świadomie o prowadzonej działalności innowacyjnej i jej znaczeniu dla wyników firmy. Jednak wyraźnie koncentrował się na konsekwencjach podrabiania jego innowacyjnych produktów obecnych już na rynku. Rozproszenie zasobów informacji na terenie firmy, brak świadomości odnośnie do potrzeby ich organizacji i zabezpieczenia nie stanowią, zdaniem rozmówcy, problemu wartego specjalnych rozważań.
Prowadzone rozmowy dały podstawę do sformułowania opinii o wyższym stopniu zrozumienia potrzeby ochrony informacji jedynie w przedsiębiorstwie A. Prawdopodobnie jest to wynik zarejestrowanych tam incydentów dotyczących bezpieczeństwa informacji. Ich negatywne konsekwencje wzmocniły czujność właścicieli i pracowników na ewentualne zagrożenia i skłoniły do „uszczelnienia” modelu zarządzania bezpieczeństwem kluczowych informacji. Nie bez znaczenia wydaje się również fakt, że firma zatrudnia głównie prawników, a jedna ze świadczonych usług jest ściśle powiązana z zarządzaniem danymi osobowymi. W odróżnieniu od pozostałych diagnozowanych firm, informacja jest w przedsiębiorstwie A zasadniczym przedmiotem pracy. Usługi prawnicze są bowiem w dużym stopniu usługami informacyjnymi.
Zdecydowanie jednym z najważniejszych rekomendowanych zaleceń we wszystkich diagnozowanych firmach powinno być opracowanie i wprowadzenie do stosowania wytycznych dotyczących ewidencji i typizacji zasobów informacji oraz ich sygnowania, wskazując na miejsce przechowywania, zakres użytkowania oraz podmiot odpowiedzialny za zabezpieczenie ich podstawowych własności. Warte rozważenia byłoby również wydzielenie osobnego pomieszczenia na cele archiwum i deponowania w nim informacji poufnych i objętych tajemnicą. Dokumenty szczególnie ważne należałoby, w zależności od formy, powielić lub zdigitalizować i przechowywać w różnych miejscach, jeśli to możliwe oddalonych terytorialnie.
Za istotny czynnik bezpieczeństwa informacji warto by przyjąć zapoznanie się właścicieli i zarządców diagnozowanych przedsiębiorstw z treścią aktów prawnych określających ich powinności wobec postępowania z informacją. Warto, aby mieli świadomość istnienia normy ISO 27001 i traktowali jej zapisy jako podstawę szacowania zdolności własnej organizacji do spełnienia jej oczekiwań, wymagań i potrzeb dotyczących bezpieczeństwa informacji.
W recepcie działań zaradczych obligatoryjnych dla wszystkich badanych obiektów, w szczególności dla przedsiębiorstwa B, należałoby umieścić podejmowanie form szkoleniowych z zakresu zarządzania bezpieczeństwem informacji. W każdej organizacji powinna być przynajmniej jedna osoba specjalizująca się w zarządzaniu zasobami informacji z silnym akcentem na ich bezpieczeństwo. Wyposażona w kompetencje odpowiednie do pracy z informacją i na bieżąco doszkalana powinna opracować, oddać do akceptacji zarządu i wdrożyć information security policy, czyli zestaw wytycznych, regulaminów, instrukcji, umów o poufności, założeń polityki bezpieczeństwa informacji itp., z którego będą wynikać przejrzyste zasady postępowania z zasobami informacji zapisanych w formie tradycyjnej i cyfrowej, w szczególności z informacją strategiczną. Fakt istnienia i obowiązywania takich wytycznych powinien być komunikowany wszystkim pracownikom przedsiębiorstwa.
Nie jest moim zamiarem krytykowanie stanu bezpieczeństwa informacji zastanego w analizowanych firmach. Niewątpliwie jednak zidentyfikowane nieprawidłowości i założenia postępowania z informacją wymagają reakcji. Poważną słabością, szczególnie w przedsiębiorstwach B i C, jest brak polityki bezpieczeństwa informacji. Może to świadczyć o deficytach kompetencyjnych informatyków obsługujących te przedsiębiorstwa.
Z uwagi na fakt, że przedmiotem diagnozy były tylko trzy przedsiębiorstwa i tylko wybrane fragmenty ich działalności, trudno o wyprowadzanie szerszych wniosków i ich uogólnianie. Skłaniam się do przypuszczenia, że dbałość o bezpieczeństwo aktywów informacyjnych jest w sektorze mikro, małych i średnich przedsiębiorstw niska i wynika z niskiego poziomu świadomości ryzyka utraty ważnych zasobów. Niska świadomość z kolei jest rezultatem niewystąpienia w tych przedsiębiorstwach ani epizodów, ani zdarzeń pokaźnych, przykrych w skutkach, skłaniających do refleksji i wywołujących natychmiastową potrzebę opracowania i wdrożenia kompleksowej strategii zarządzania bezpieczeństwem informacji. Dopiero finansowe, prawne, bądź wizerunkowe konsekwencje będą czynnikiem uruchamiającym odpowiednie działania.
W wykazie zaleceń warto dlatego umieścić bieżące korzystanie z doradztwa i szkoleń, których następstwem powinno być opracowanie modelu postępowania z zasobami informacji, uwzględniającego indywidualne okoliczności funkcjonowania firm. Nie musi to być profesjonalna, zgodna z normą strategia kompleksowego zarządzania informacją. W fazie początkowej wystarczy powołanie do życia programu łączącego rozsądne i „skrojone na miarę” procedury, reguły, metody, narzędzia i czynności oraz zaangażowanie i współodpowiedzialność pracowników, aby zapewnić niezakłócone, stabilne funkcjonowanie organizacji i jej zasobów informacyjnych.
Bibliografia
1.
Bezpieczne informacje – bezpieczna przyszłość. Kluczowe obserwacje z wyników ankiety „Globalny stan bezpieczeństwa informacji 2014” (The Global State of Information Security® Survey 2014) (2014). PricewaterhouseCoopers Sp. z o.o https://www.pwc.pl/pl/publikacje/assets/giss_2014_polska.pdf (odczyt: 2.05.2017).
2.
Białas, Andrzej (2006). Bezpieczeństwo informacji i usług w nowoczesnej instytucji i firmie. Warszawa: Wydawnictwo Naukowo-Technicznej.
3.
Bilski, Tomasz (2008). Pamięć. Nośniki i systemy przechowywania danych. Warszawa: Wydawnictwo Naukowo-Techniczne.
4.
Bral, Wiesław (2008). Obieg i ochrona dokumentów w zarządzaniu jakością, środowiskiem i bezpieczeństwem informacji. Warszawa: Difin.
5.
Łunarski, Jerzy red. (2006). Systemy zarządzania bezpieczeństwem w przedsiębiorstwie. Rzeszów: Oficyna Wydawnicza Politechniki Rzeszowskiej.
6.
Dubisz, Stanisław (2003). Uniwersalny słownik języka polskiego. Tom 1. Warszawa: Wydawnictwo Naukowe PWN.
7.
Konstytucja Rzeczypospolitej Polskiej z dnia 2 kwietnia 1997 r. Dziennik Ustaw, 1997, nr 78, poz. 483.
8.
Kriterienkatalog vertrauenswürdige digitale Langzeitarchive. Version 1: Entwurf zur öffentlichen Kommentierung (2006). Nestor Materialien, Nr 8. Frankfurt am Main. http://edoc.hu-berlin.de/series/nestor-materialien/2006-8/PDF/8.pdf (odczyt: 2.05.2017).
9.
Łuczak, Jacek; Tyburski, Marcin (2010). Systemowe zarządzanie bezpieczeństwem informacji ISO/IEC 27001. Poznań: Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu.
10.
Materska, Katarzyna (2007). Informacja w organizacjach społeczeństwa wiedzy. Warszawa: Wydawnictwo SBP.
11.
PN-ISO/IEC 27001:2014-12. Technika informatyczna – Techniki bezpieczeństwa – Systemy zarządzania bezpieczeństwem informacji – Wymagania.
12.
PN-ISO/IEC 27002:2014-12. Technika informatyczna – Techniki bezpieczeństwa –Praktyczne zasady zabezpieczania informacji.
13.
PN-ISO/IEC 27006:2016-12. Technika informatyczna – Techniki bezpieczeństwa – Wymagania dla jednostek prowadzących audyt i certyfikację systemów zarządzania bezpieczeństwem informacji.
14.
Ustawa z dnia 26 czerwca 1974 r. Kodeks pracy (2017). Dziennik Ustaw, nr 0, poz. 1666.
15.
Ustawa z dnia 16 kwietnia 1993 r. o zwalczaniu nieuczciwej konkurencji (2004). Dziennik Ustaw, nr 47, poz. 211.
16.
Ustawa z dnia 29 września 1994 r. o rachunkowości (2017). Dziennik Ustaw, nr 121, poz. 591.
17.
Ustawa z dnia 29 sierpnia 1997 r. o ochronie danych osobowych (2015). Dziennik Ustaw, nr 133, poz. 883.
18.
Wójcik, Jerzy W. (2016). Ochrona informacji a wywiad gospodarczy. Zagadnienia kryminalistyczne, kryminologiczne i prawne. Warszawa: Towarzystwo Naukowe Powszechne S.A.
19.
Żebrowski, Andrzej (2004). Bezpieczeństwo wiedzy – nowy atrybut działalności przedsiębiorstw. W: Ryszard Borowiecki, Mirosław Kwieciński red. Informacja i wiedza w zintegrowanym systemie zarządzania. Kraków: Zakamycze, s. 421-446.
Aneta Januszko-Szakiel, Paloma Korycińska
Instytut Informacji Naukowej i Bibliotekoznawstwa
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Ocena komunikacji przekrojowej jako składnik audytu komunikacyjnego w przedsiębiorstwie wdrażającym innowacje
Transversal communication assessment as
a component of a communication audit in a company facing innovation
Słowa kluczowe: audyt komunikacyjny, innowacja technologiczna, komunikacja skrośna, metoda zdarzeń krytycznych, zarządzanie zmianą.
Keywords: change management, communication audit, critical incidents technique, technological
innovation, transversal communication.
Abstrakt
Komunikacja skrośna (transversal communication) w przedsiębiorstwie, inaczej „komunikacja każdy z każdym”, jest definiowana jako ogół nieformalnych wymian ustnych prowadzonych przez pracowników organizacji z pominięciem ograniczeń i oporów wynikających z podległości służbowej. Liczne badania wskazują, że innowacje technologiczne łatwiej rodzą się i przyjmują w kulturach organizacyjnych, które dopuszczają i waloryzują kontakty międzyludzkie tego rodzaju, aniżeli w kulturach przywiązanych do pionowego modelu komunikacji i restrykcyjnego gospodarowania informacją wewnętrzną. W celu potwierdzenia tej prawidłowości przeprowadzono audyt komunikacyjny w firmie X, średnim przedsiębiorstwie prywatnym działającym w branży budownictwa nowoczesnego, wytwarzającym fasady elementowe aluminiowo-szklane, z siedzibą w Małopolsce. Firma ta została uznana za sprzyjający teren badawczy, ponieważ przygotowuje się do wdrożenia innowacji technologicznej, która przekształci dotychczasowe praktyki zarządcze. Za pomocą metody zdarzeń krytycznych, a w jej ramach techniką wywiadu częściowo ustrukturyzowanego, zbadano odczucia kilkorga pracowników firmy X różnych szczebli na temat nadchodzących przeobrażeń oraz sposobu, w jaki informowano ich (lub nie) o przebiegu i następstwach tych zmian. Stwierdzone na podstawie analizy wywiadów istnienie utrwalonego obyczaju komunikacji przekrojowej uznano za dodatni predyktor pełnego sukcesu wdrożenia innowacji w firmie.
Abstract
Transversal communication within an enterprise, or “peer-to-peer communication”, is defined as the overall informal exchange carried out by employees of an organization, without the limitations and restrictions implied by hierarchy. Numerous studies indicate that technological innovations are more easily born and adopted in organizational cultures that allow and valorise such type of interpersonal contacts as opposed to those with vertical communication patterns and parsimonious management of in-house information. In order to confirm this regularity, a communication audit was conducted in company X, a medium private enterprise operating in the modern building industry, manufacturing aluminium-glass facades, based in Małopolska. This company has been recognized as a relevant research area insofar as it is shortly going to implement a technological innovation expected to transform existing management practices. By means of semi-structured interviews and the critical incidents technique (CIT), we explored the attitudes of several employees representing different levels of company X towards the forthcoming transformations and how they were informed (or not) about the course and the consequences of those changes. Based on an analysis of interviews, the existence of a consistent pattern of cross-sectional communication was considered as a positive predictor of successful implementation of innovation in the company.
Wstęp. Środowisko badań
Pojęcie komunikacji skrośnej (transversal lub diagonal communication) zostało zaczerpnięte z prac Gilles’a Deleuze’a, który nazwał nim podstawową wyróżniającą właściwość każdej organizacji autopoietycznej, czyli systemu zdolnego samodzielnie tworzyć się i odnawiać w nieustannym ciągu reakcji i proakcji wobec zmiennych okoliczności zewnętrznych (Deleuze, Guattari, 1987, s. 10) bądź, innymi słowy, w dialektycznej grze między biegunami zakłóceń środowiskowych i wewnętrznych kompensacji (Varela, 1979, s. 167). Zdolność ta jest pochodną komunikacji obejmującej przekrojowo wszystkie szczeble organizacji i wszystkie komórki operacyjne, które porozumiewają się w trybie „każdy z każdym”, przekraczając progi hierarchiczne. Jak pisze Inna Semetsky, „akt komunikacji – i nie jest to w żadnym razie komunikacja wyłącznie ustna – ustanawia inne i nowe relacje między składnikami (organizacji), ponieważ wywołuje działania wyrównawcze (kompensacyjne)”, wskutek których organizacja może nie tylko dostosowywać się do warunków środowiskowych, a więc rozwijać się lub jedynie trwać zależnie od koniunktury, ale także wytwarzać wartości nowe nawet wówczas, gdy okoliczności temu nie sprzyjają (Semetsky, 2003, s. 25; Semetsky, 2008, s. 34).
W nauce o zarządzaniu komunikacja skrośna wskazywana jest jako jeden z elementów warunkujących skuteczność zarządzania antykryzysowego, rozumianego „jako podejmowanie działań zmierzających do zapobiegania kryzysom, minimalizowania jego negatywnych konsekwencji i wprowadzenie działań rewitalizacyjnych” (Czarnecki, Starosta, 2015, s. 20). Z kolei kryzys definiuje się albo jako „punkt krytyczny, okres przełomu, trudną sytuację, pewną niestabilność, sytuację będącą zagrożeniem dla funkcjonowania organizacji”, albo – szerzej i mniej negatywnie – „jako moment decydujący, czy dana sytuacja ulegnie zmianie” (Walas-Trębacz, Ziarko, 2011, s. 17-18).
Za środowisko przedmiotowego badania posłużyło małopolskie przedsiębiorstwo sektora MŚP (małych i średnich przedsiębiorstw) realizujące cele biznesowe w branży projektowania, wykonawstwa i montażu systemowych i niesystemowych konstrukcji aluminiowo-szklanych dla budownictwa. Firma powstała w 1991 roku i w wyniku konsekwentnego rozwoju technologicznego jest obecnie rozpoznawanym w skali kraju producentem fasad elementowych, stosującym zaawansowane autorskie metody obróbki oraz łączenia szkła i aluminium. Zatrudnia 110 pracowników na podstawie umowy o pracę (55 osób w pionie produkcji, 18 w pionie administracji, 37 w pionie monterskim). Stanowi przykład organizacji przedsiębiorczej, twórczej, innowacyjnej, która nie jest tworem efemerycznym, lecz funkcjonuje trwale. Takie organizacje nie są w stanie uniknąć zmian, jednak mogą i powinny różnymi metodami rozpoznawać możliwe konsekwencje swojej przedsiębiorczej postawy i przygotowywać się do właściwej reakcji na sprowokowaną nowość.
Firma X została uznana za dogodny teren badań, ponieważ zapadła w niej decyzja o wprowadzeniu strategicznej zmiany polegającej na wybudowaniu nowej większej siedziby oraz wdrożeniu innowacyjnej technologii produkcji podstawowego asortymentu, dodajmy: technologii własnego autorstwa. Przyjęto dwie hipotezy:
−
planowana innowacja spełnia kryteria sytuacji kryzysowej w znaczeniu szerszym lub przynajmniej stanowi zakłócenie dotychczasowej rutyny działania przedsiębiorstwa X wymagające reakcji wyrównawczej,
−
występowanie w firmie X komunikacji skrośnej jest predyktorem powodzenia zamierzonych zmian.
Stosownie do hipotez cele badania określono jako ustalenie, czy:
−
zbliżająca się innowacja jest w firmie X postrzegana jako zwiastun lub możliwe źródło kryzysu,
−
w firmie X występuje komunikacja skrośna.
Celem trzecim, będącym wypadkową dwóch poprzednich, było ewentualne zaproponowane środków zaradczych mogących zmniejszyć ryzyko ujemnych skutków innowacji.
Materiał i metoda
Materiał empiryczny zebrano w drodze wywiadu częściowo ustrukturyzowanego zaprojektowanego zgodnie z metodą incydentów (zdarzeń) krytycznych (critical incidents technique, CIT), którą w 1954 roku opisał John C. Flanagan (Flanagan, 1954), postulując jej przydatność w badaniu m.in. różnych aspektów psychologii organizacji – pracowników, środowiska pracy, klientów, procesów komunikacyjnych itp. (Prokopowicz, Żmuda, Król, 2014, s. 75). Incydent krytyczny należy postrzegać jako pojedyncze wydarzenie (sytuację), które da się wyodrębnić i które znacząco wpływa na jakieś działanie albo zjawisko (Cisek, 2015). Także jako „obserwowalne zachowanie, które stanowi na tyle zwartą całość, że pozwala wnioskować zarówno na temat osoby, która dane zachowanie przejawia, jak i na temat bezpośrednich konsekwencji tego zachowania” (Flanagan, 1954; Prokopowicz, Żmuda, Król, 2014, s. 75). W metodzie tej praca badacza polega na zgromadzeniu i analizie „ludzkich opowieści o zdarzeniach krytycznych” w celu „odkrycia «leżących głębiej» problemów i uwarunkowań” (Cisek, 2015) (zob. także opublikowany w niniejszej książce artykuł Sabiny Cisek Diagnostyka kompetencji informacyjnych w miejscu pracy – technika incydentów krytycznych).
Metoda incydentów krytycznych posłużyła autorkom do poznania narracji respondentów o odczuciach, nastawieniach, stanach, które towarzyszą im w związku ze zmianami w środowisku ich pracy. W toku bezposzśredniej, interaktywnej rozmowy „twarzą w twarz” i z zastosowaniem dyspozycji do wywiadu, rozmówcom zadawano pytania w celu wysondowania, czy i w jaki sposób został w firmie zorganizowany przekaz informacji o zaplanowanych zmianach oraz jaka atmosfera panuje w zespole w związku z tym komunikatem.
Rozmowy prowadzono w kwietniu 2017 roku w siedzibie diagnozowanego przedsiębiorstwa. Wywiadu udzielili prezes (właściciel przedsiębiorstwa), dyrektor techniczny, dyrektor handlowy, konstruktor, kierownik produkcji, ślusarz. Rozmowy trwały od 20 do 30 minut i były nagrywane.
Wszystkie wywiady wiernie transkrybowano, uzyskując korpus tekstowy (dalej: Kprim) o objętości 84 123 słów, który poddano dwuetapowej analizie za pomocą programu do wspomagania badań jakościowych MaxQDA firmy Provalis (pełna wersja licencjonowana). Faza pierwsza polegała na wyodrębnieniu cech zgromadzonego materiału językowego w aspekcie ilościowym. W tym celu w całym korpusie: wykonano lematyzację (stemming), czyli automatyczne sprowadzenie odmienionych form wyrazowych do postaci tematów oraz zadano listę wyrazów nieistotnych (stop-words), o miernej wartości semantycznej, które miały być pomijane w dalszej obróbce statystycznej zbioru. Następnie wygenerowano tabelę frekwencyjną (TF1) pierwszego rzutu obrazującą częstotliwość występowania poszczególnych leksemów w korpusie, zaznaczono w niej jednostki nieistotne niewpisane uprzednio na listę stop-words, uzupełniono listę stop-words, po czym zadano stworzenie tabeli frekwencyjnej drugiego rzutu (TF2), przyjmując ją za ostateczną reprezentację rozkładu ilościowego słów w Kprim. W kolejnym kroku automatycznie otagowano w Kprim wszystkie leksemy wykazane w TF2 za pomocą funkcji „Kodowanie in vivo” i „Autokodowanie” w MaxQDA, wskutek czego dla każdego z nich otrzymano indeks kolokacji KWIC (Key Words In Context) z marginesem kontekstowym 10 słów poprzedników i 10 następników. Indeksy wyeksportowano do tabeli w formacie rtf, by sprawdzić, czy otoczenie kontekstowe jest wystarczająco obszerne do analizy jakościowej. Wynik weryfikacji okazał się ujemny, dlatego korpus Kprim otagowano ponownie, jako podstawową jednostkę analizy przyjmując segment (odpowiednik akapitu w edytorze Word). Wyniki powtórnego kodowania przekształcono w plik rtf, który uznano za docelowy korpus przeznaczony do zbadania jakościowego w drodze ręcznej kategoryzacji indukcyjnej z zastosowaniem metody zdarzeń krytycznych. Zbiór ten, dalej określany jako Kbis, liczył 69 112 słów i posłużył jako rzeczywista podstawa wnioskowania w ramach drugiego etapu analizy. Wyniki obu faz eksploracji zostały przedstawione poniżej.
Ocena ilościowo-jakościowa korpusu Kbis
Tabela TF2, uzyskana po dwukrotnym odsianiu słów nieistotnych, zawierała 1121 nieodmiennych i odmiennych części mowy zredukowanych do tematów wyrazowych lub bezokoliczników. Utworzony na jej podstawie Kbis liczył 789 segmentów (akapity), które indukcyjnie podzielono na cztery wzajemnie przecinające się kategorie: argumenty, wartości, działania, emocje, co oznacza, że każdy segment mógł być zaliczony do więcej niż jednej klasy. Do segregowania jednostek użyto narzędzia MaxQDA.
Pod nagłówkiem „argumenty” zagregowano wypowiedzi dotyczące realiów funkcjonowania oraz dalszego i bliższego otoczenia biznesowego przedsiębiorstwa, zorganizowane wokół pojęć takich jak: rynek, rozwój, zmiany, koniunktura, kontrahenci, maszyny, urządzenia, park, ceny, klienci, postęp, hale, siedziba, działka itp. W kategorii tej uwzględniono też wszystkie wymieniane przez respondentów nazwy produktów, usług, elementów wyposażenia, sprzętu i stosowanych w firmie technologii, określenia typów klientów i wykonanych inwestycji, nazwy stanowisk służbowych. Nazwę kategorii wywiedziono stąd, że ujęte w niej odniesienia do warunków działania firmy były podawane przez rozmówców jako obiektywne, faktograficzne, mierzalne racje uzasadniające konieczność wprowadzenia innowacji.
Do kategorii „wartości” zaszeregowano segmenty zawierające wyrażenia nacechowane aksjologicznie, niekiedy układające się w wyraziste metafory. W tej grupie na czoło pod względem frekwencyjnym wysuwają się rozmaite moralne konceptualizacje rodziny, wspólnoty i wspólnotowości, solidarności, lojalności, zaufania i zawierzenia oraz uczciwego wynagradzania. W metaforyce służącej do opisywania tych wartości występują kilkakrotnie obrazy jedności interesów, np. „wszyscy jedziemy na tym samym koniku” oraz zaprzeczane przez rozmówców, przywoływane jako antyteza stosunków w firmie, obrazy właściwie retoryce przemocy i rywalizacji, np. „nikogo nie będziemy odstrzeliwać”, „tutaj nie jest jak w typowej korporacji, nikogo się nie sprawdza ciągle, czy coś robi, czy nie robi”. Uwagę zwracają ponadto proste, lecz sugestywne tropy językowe podkreślające wartość doświadczenia i długiego stażu pracy w branży lub w badanej firmie, które rozmówcy postrzegają jako cenne źródło nieskodyfikowanej wiedzy fachowej, np. „ja już dwadzieścia lat siedzę, jak to się mówi po branżowemu, w (nazwa branży)”, „przez te lata, co ja tu jestem, to się tych katalogów naoglądało, z tymi dostawcami porozmawiało…”, „gdyby inny przyszedł na moje miejsce, bez tego doświadczenia, które ja mam, to może by się bał faktycznie”.
Kategoria „działania” została wydzielona w wyniku analizy segmentów cechujących się zagęszczeniem czasowników inchoaktywnych, czyli denotujących czynności, ruch, celowe lub niecelowe przemieszczanie lub przeobrażanie. Po pominięciu czasowników posiłkowych na najwyższych miejscach w rankingu częstości występowania uplasowały się kolejno czasowniki: iść (do przodu), rozwijać (się), uczyć się, nadążać, szkolić (się), (u)trzymać się (na fali, na powierzchni), (nie) popłynąć, których respondenci używali wyłącznie (100%) w wypowiedziach wyjaśniających podłoże zaplanowanych w firmie zmian. Druga grupa najczęstszych czasowników odnosiła się do stosowanych przez rozmówców praktyk radzenia sobie z nowością i zmianą na stanowisku pracy i obejmowała jednorodny semantycznie zbiór pasujący do antropologicznego pojęcia brikolażu, to jest: (po)kombinować, rozpracować, opanować, (po)drążyć, obskoczyć, (po)pokazywać (sobie), porobić. Z językoznawczego punktu widzenia warto zauważyć wielość czasowników z tautologicznym przedrostkiem „po” (ogółem 11 wystąpień z 6 różnymi czasownikami w Kbis), który
−
w odróżnieniu od większości zdublowanych prefiksów w polszczyźnie standardowej zdaje się zmieniać odcień znaczeniowy podstawy czasownikowej, podkreślając temporalny, powtarzalny i zwyczajowy charakter opisywanej czynności (Ejsmunt-Wieczorek, 2016, s. 6),
−
ze względu na swoją bardzo wysoką frekwencję w wypowiedziach wszystkich respondentów jest prawdopodobnie składnikiem wewnętrznego języka firmy (idiolektu), a więc także bezpośrednim odbiciem panującej w przedsiębiorstwie kultury organizacyjnej.
Z tej perspektywy za nietrywialne uznano także odkrycie nadzwyczaj licznych wystąpień konstrukcji zawierających zaimek „się” połączony z podmiotem biernym np. „no i wiadomo, że się zrobi, bo trzeba”, „dostaje się plany od konstruktorów i się dobiera maszyny, się docina, próbuje”. W grupie segmentów zakwalifikowanych do kategorii „działania” konstrukcje te stanowiły 32% wszystkich form werbalnych, wśród których dominowały połączenia czasowników z podmiotem czynnym: ja + czasownik oraz my + czasownik. Ustalenie to jest istotne, ponieważ takie użycie zaimka zwrotnego „się” nigdy nie jest pragmatycznie obojętne ani przypadkowe (choć może być oczywiście nieświadome) (Ernt, 2012, s. 206). Według Johna L. Austina „przywołuje (on) normę społeczną, zatem Agens jest niemożliwy do zidentyfikowania, gdyż fizycznie de facto nie istnieje” (Austin, 1993, s. 106), co należy interpretować w ten sposób, że – w rozpatrywanym materiale – zaimek „się” służy zastępowaniu sprawczości własnej interlokutora sprawczością nadrzędną, wynikającą z „normy społecznej”, którą można by utożsamić z kulturą organizacyjną firmy. Agens, czyli podmiot działający, nie jest w niej nieobecny w sensie dosłownym, lecz raczej roztapia się w większej zbiorowości (zespole pracowniczym) kierowanej zasadami kultury, w której wszyscy razem radzą sobie z bieżącymi zmianami za pomocą narzędzi i zasobów, jakie mają akurat na podorędziu. Ten typ strategii dostosowawczej w przedsiębiorstwach bywa nazywany strategią brikolażu (szerzej o tym w ostatnim akapicie części zatytułowanej Stopień poinformowania o innowacji).
W kategorii „emocje” znalazły się segmenty zawierające jawne lub latentne, czyli dorozumiane (utajone), bo zakodowane jedynie w strukturze gramatycznej wypowiedzi, językowe oznaki stosunku emocjonalnego do argumentów, wartości i działań, jakie narrator przypisywał albo sobie samemu, albo innym pracownikom firmy. Klasyfikowanie leksemów do tej grupy okazało się nader wygodne, ponieważ respondenci spontanicznie, bez zachęt ze strony badaczek, oznaczali swoje/cudze stany emocjonalne za pomocą całych skupisk przymiotników, przysłówków i rzeczowników, np. spokój, dyskomfort, normalnie, całkiem zwyczajnie, zupełnie naturalne, ciekawość, podekscytowanie, wyzwanie, skupienie, chłodna rozwaga. Ważną przesłanką ukierunkowującą późniejszą analizę korpusu Kbis było ustalenie, że mówiąc o własnych stanach uczuciowych, każdy z badanych stosował językowe zabiegi modulujące, których funkcją było łagodzenie jednoznacznego wydźwięku użytych określeń, np. „ spokój?, nie, tak daleko może bym się posunął”, „dyskomfort to za dużo powiedziane”, „jeśli się martwię, to w tym sensie, że się nie zastanawiam, czy, tylko kiedy to (inwestycja w innowację) się zwróci”. Uznano, że zjawisko modulowania (zamazywanie ostrości) ocen może być wskaźnikiem niskiego udziału komponentu emocjonalnego w kulturze organizacyjnej przedsiębiorstwa.
W tabeli nr 1 ukazano proporcje kategorii przyjętych w opracowaniu Kbis, z oznaczeniem liczby i procentowego udziału jednostek wypowiedzi, które podczas kodowania sklasyfikowano jako oceniane/postrzegane przez respondenta pozytywnie (+) lub negatywnie (-). Ze względu na przyjętą zasadę włączania poszczególnych segmentów do więcej niż jednej kategorii liczby wskazane w rubrykach wartości bezwzględnych nie sumują się do N = 789 (liczba segmentów w korpusie Kbis).
Tabela 1. Ilościowe wyniki kategoryzacji Kbis
ARGUMENTY
DZIAŁANIA
EMOCJE
WARTOŚCI
Segmenty*
N = 789
L.b.
%
L.b.
%
L.b.
%
L.b.
%
ogółem
312
29,5%
265
33,6%
86
10,9%
148
18,7%
negatywne
7
1,1%
9
1,1%
6
0,7%
9
1,1%
* Uwaga: segment (akapity) nie są równoważne z wydarzeniami krytycznymi.
L.b. = liczby bezwzględne
Źródło: oprac. własne
Pierwszy etap analizy, czyli ocenę ilościową korpusu Kbis, przeprowadzono z ostrożności metodologicznej w celu ugruntowania wniosków w materiale językowym i zmniejszenia ryzyka błędu systematycznego (bias), który w tym przypadku mógłby polegać na sprzecznym z zasadą indukcji rzutowaniu na badane treści wrażeń, a nawet przedustawnych sądów wyniesionych przez badaczki z interakcji podczas wywiadów. Dane ilościowe obrazujące strukturę treściową korpusu Kbis wskazują na znikomy udział desygnatów, którym respondenci przypisywali znaczenie negatywne, oraz słabe nasycenie treściami o zabarwieniu emocjonalnym. Sugerowało to, że w wypowiedziach badanych będą przeważać odniesienia do zdarzeń krytycznych postrzeganych jako ważne, lecz niekoniecznie wstrząsające i wyjątkowe lub że ewentualny negatywny wymiar przeżytych zdarzeń krytycznych będzie przysłaniany. W kontekście planowanej analizy materiału metodą CIT uznano, że hipoteza skłania do wzmocnienia rygorów metodologicznych stosowanych podczas identyfikacji zdarzeń krytycznych w korpusie Kbis.
Ocena jakościowa korpusu Kbis
W piśmiennictwie informatologicznym z lat 2000-2017 nie znaleziono publikacji, w których autorzy pracujący metodą CIT na materiale empirycznym w postaci wypowiedzi wywołanych (np. techniką wywiadu) lub spontanicznych (np. z serwisów społecznościowych) przytaczaliby zastosowane przez siebie kryteria wyodrębniania jednostkowych reprezentacji zdarzeń krytycznych. Z uwagi na opisane wyżej cechy statystyczne korpusu Kbis, w badaniu jakościowym przyjęto zatem kryteria własne, wyprowadzone z typologii aktów mowy Paula Grice’a (Zdunkiewicz, 1993, s. 260-262), ustalając, że za wzmianki o zdarzeniu krytycznym będą uznawane:
−
przypadek oczywisty: wystąpienie w segmencie asercji poprzedzonych tzw. sformułowaniami dyspozytywnymi, za pomocą których rozmówca zapowiada, a zarazem podkreśla, że będzie mówił o sprawach dla siebie istotnych, np. „wobec tego ja pani powiem, co tu się najbardziej liczy…”, „każdy, kto zna tę branżę to powie i ja też, że decydującym czynnikiem jest…”, „ja zawsze uważałem i nadal tego nie zmieniłem, że..” lub
−
segmenty zawierające asercje i inne akty mowy, w których występują wyraźne językowe oznaki świadczące o tym, że rozmówca postrzega przedmiot wypowiedzi jako nietrywialny: implikatury i supozycje bądź cechy czysto pragmatyczne, np. wielokrotne powtórzenia danego leksemu, niepoprawne anafory („to, co jest istotne, to jest to, że to właśnie…”) lub
−
segmenty zawierające dyrektywne akty mowy (nakazy, polecenia, asercje stwierdzające istnienie obowiązków), które rozmówca wplata do opisu danej sytuacji lub okoliczności, dając tym samym do zrozumienia, że należało postąpić w określony sposób lub
−
segmenty zawierające ekspresywne akty mowy, przez które badany wyraża swój stosunek emocjonalny do przedmiotu wypowiedzi.
Zastosowanie podziału aktów mowy jako klucza identyfikowania zdarzeń krytycznych było równoznaczne z dopuszczeniem, że znajdą się wśród nich nie tylko reminiscencje zdarzeń sensu stricto, ale również, być może w przewadze, nawiązania do faktów psychicznych pozbawionych charakteru zdarzeniowego (narracyjnego). W wyniku przyłożenia powyższych kryteriów z korpusu Kbis wyłoniono 118 segmentów zawierających reprezentacje zdarzeń krytycznych, które w opinii rozmówców wiązały się z działaniem systemu informacyjno-komunikacyjnego firmy w przededniu zmian. Zdarzenia te omówiono w podziale na dwa główne tematy, które dawano respondentom pod rozwagę za pośrednictwem pytań w wywiadzie częściowo ustrukturyzowanym. Scenariusz wywiadu przewidywał dwa pytania główne (PG) oraz fakultatywne pytania pomocnicze (PP), do których badaczki miały sięgać w przypadku zahamowania toku rozmowy z respondentem:
PG 1: „Firma przygotowuje się do budowy nowej siedziby i wdrożenia nowej autorskiej technologii produkcji. Jak ocenia pan swoje samopoczucie w obliczu tych zmian?”
PG 2: „Czy został pan poinformowany o planowanej inwestycji w sposób odpowiedni do swoich potrzeb?”
PP 1: „Czy istnieje ryzyko, że zmiana w firmie będzie wymagać kompetencji, których pan nie posiada?”
PP 2: „Czy w przeszłości zdarzyło się, że nie miał pan wystarczających kompetencji, aby zmierzyć się ze zmianami w firmie?”
PP 3: „Czy nowa inwestycja może być źródłem konfliktów?”
PP 4: „Czy w przeszłości zdarzyło się, że zmiany wprowadzane w firmie były źródłem konfliktów”?
Wyniki
Ogólny stosunek poznawczo-uczuciowy do innowacji
W odpowiedzi na pierwsze pytanie główne rozpoczynające każdy wywiad, wszyscy rozmówcy, pomijając zupełnie zachętę do opisania swojego samopoczucia, przedstawili szereg jednobrzmiących argumentacji ekonomicznych dowodzących konieczności i pilności wprowadzenia zmian. Z tej grupy wypowiedzi wyodrębniono pięć zdarzeń krytycznych towarzyszących procesowi dojrzewania firmy do decyzji o zmianie innowacyjne.
1.
Wielokanałowe pozyskiwanie i filtrowanie informacji o tendencjach rynkowych w obsługiwanej branży (kontakty z przedsiębiorcami i klientami branży, obserwacja wskaźników makroekonomicznych, odnotowywanie wahań koniunktury, śledzenie postępu technologii na podstawie lektury prasy branżowej, udział w targach oraz monitorowanie konkurencji krajowej i zagranicznej).
2.
Istnienie wytworzonej w firmie postawy aksjologicznej, rozumianej jako uwewnętrzniony etos lokalny, której osią jest bezwzględna powinność rozwoju.
3.
Inherentną dla każdej działalności gospodarczej niepewność co do terminu osiągnięcia zwrotu z inwestycji i niemożność uzyskania jakichkolwiek danych lub informacji, które by tę niepewność zmniejszały.
4.
Zawierzenie wiedzy, rozeznaniu i majętności właściciela firmy.
5.
Pragnienie utrzymania pozycji i reputacji poświadczanej niedawnymi wielkimi osiągnięciami.
Zdarzenia te, powtarzające się w wypowiedziach wszystkich rozmówców, dotyczą, odpowiednio: zachowań informacyjnych pracowników firmy i organizacji obiegu informacji w firmie (1 i 4), zachowań aksjologicznych zespołu i kierownictwa firmy (2, 4, 5) oraz obiektywnych warunków panujących w środowisku działania firmy (3). Jeśli chodzi o najbardziej interesujące dla badaczek zdarzenia powiązane z ekosystemem informacyjnym firmy, warto zauważyć, że po zestawieniu odpowiedzi poszczególnych respondentów możliwe było odtworzenie prawdopodobnego schematu pobierania i przetwarzania informacji, w którym centralne miejsce zajmuje dyrektor zarządzający. Według jego własnych słów odpowiada on za „nasłuch informacyjny” w bliższym i dalszym promieniu funkcjonowania przedsiębiorstwa. Wyniki tego nasłuchu przekazywane są na bieżąco prezesowi firmy, który uwierzytelnia je swoją wiedzą i kapitałem, a następnie podejmuje adekwatne do nich decyzje strategiczne. Badanie kierunku związków logicznych w argumentacjach budowanych przez rozmówców, szczególnie czytelnych w wypowiedzi dyrektora zarządzającego, prowadzi do wniosku, że siłą napędową tej ciągłej aktywności informacyjnej jest deontologiczne przekonanie o obowiązku dążenia do rozwoju, wynikające m.in. z dumy, jaką napawają go ostatnio zrealizowane wielkie inwestycje. W tym miejscu trzeba zresztą zauważyć, że w pierwszych 5 minutach wywiadu ze wszystkimi badanymi słowa denotujące rozwój padły łącznie 88 razy, co daje średnią 3,52 wystąpień na minutę. Istotne jest także to, że w żadnej wypowiedzi nawiązującej do pojęcia rozwoju nie wystąpiła modalność deontyczna, tj. tryb przypuszczający lub konstrukcje gramatyczne znamionujące niepewność i warunkowość. Kontekstowa analiza częstych (N w Kbis = 9) wyrażeń „jak się chce rozwijać (lub inne wariantywne), to…” ujawniła, że we wszystkich przypadkach chodziło w istocie o niepoprawne, potoczne użycie zaimka przysłownego „jak” w funkcji spójnika „skoro” obsługującego prosty związek wynikania, który można by opisać zdaniem „istnienie naszej firmy implikuje rozwój”.
Niezależnie od powyższych uogólnień opartych na zbiorczej analizie całego korpusu Kbis, dla lepszego wglądu w badany materiał wskazane jest streszczenie wybranych wypowiedzi indywidualnych. Operowanie tylko na korpusie zaciera bowiem związki między treścią i strukturą danej wypowiedzi a tożsamością zawodową rozmówcy, wyznaczaną m.in. przez jego stanowisko w hierarchii służbowej i wcześniejsze doświadczenia na rynku pracy.
W opinii prezesa, inicjatora innowacji, zmiany są niezbędne i uzasadnione, a decyzję o nich podjął jednoosobowo, lecz z pełnym poparciem ścisłego kierownictwa firmy. Zapewnienie sprawności funkcjonowania firmy, w znaczeniu utrzymania licznego zespołu pracowników, zasobów infrastrukturalnych, wartości niematerialnych i prawnych uważa za ogromną odpowiedzialność, wyzwanie organizacyjne i finansowe, także obciążenie natury psychicznej. Jednak „osobista determinacja” i realizowana od wielu lat strategia rozwoju doprowadziła firmę do progu przestrzeni rynkowej zwanej „błękitnym oceanem” (Chan, Mauborgne, 2010), w której nie konkuruje się ceną i marketingiem, lecz innowacyjną ofertą, a atrakcyjność i konkurencyjność są wynikiem wprowadzenia do gospodarczego obrotu produktów i usług na rynku nieobecnych bądź znacząco odmiennych od dotychczas oferowanych. Dla całej organizacji to prestiż oraz szansa na kolejne lata stabilnego zatrudnienia. Zdaniem prezesa jest to dodatkowo potwierdzenie jego wysokich kwalifikacji zarządczych.
W odpowiedzi prezesa na pytanie o odczucia w związku z zaplanowanymi zmianami w pierwszej chwili padły stwierdzenia: „nie chce mi się” oraz „jestem świadomy niezadowolenia i krytyki części zespołu”. Spytany o wielkość niezadowolonej części zespołu, respondent wspomniał przypuszczająco o połowie zatrudnionej kadry. Tytułem komentarza należy zaznaczyć, że analiza wypowiedzi innych rozmówców nie potwierdza tych przypuszczeń prezesa. Pozostali respondenci są do zmian nastawieni pozytywnie lub neutralnie, traktując ją jako naturalną kolej rzeczy w ich firmie. Są przyzwyczajeni do bieżącego reagowania zarządu firmy na zmieniające się wymogi rynku i trendy branżowe. Wyrażają wprawdzie głównie swoje nastawienie, lecz mówią też o nastrojach panujących wśród najbliższych współpracowników.
Powiedzenie „nie chce mi się” zostało natomiast uzasadnione negatywnymi doświadczeniami prezesa ze współpracy z otoczeniem biznesowym firmy. To głównie konkurencja, także nieuczciwa, „podcina skrzydła”, „psuje rynek”, „demotywuje”. W ocenie rozmówcy chęć do pracy, planowania rozwoju, wdrażania zmian odbierają niezdrowe „zasady gry” panujące na rynku. „Bycie uczciwym jest tu trudne”, dla niektórych „śmieszne”. Deprymująca dla rozmówcy okazuje się konieczność stosowania wyszukanych metod pozyskiwania zleceń. „Nie zawsze wystarczą dobra jakość produktu i usługi oraz adekwatna cena. Konieczne są na przykład zaproszenia na kolacje biznesowe jako forma okazywania względów potencjalnym zleceniodawcom”. Niemożność wpływania na czynniki zewnętrzne, głównie mentalnościowe, zniechęca go wprawdzie i irytuje, lecz nie do tego stopnia, by odstąpił od powziętych planów. Prezes podkreśla swoją świadomość tego, że nowa inwestycja i przystosowanie procesu produkcji do wymogów nowej technologii będą kosztotwórcze, czasochłonne, stresogenne i zaburzają rytm bieżącego funkcjonowania firmy. Oświadcza jednak: „Pomimo to, zamierzam sobie poradzić”.
Stopień poinformowania o innowacji
W odpowiedzi na drugie pytanie główne żaden z badanych nie stwierdził, ani domyślnie, ani wprost, że czuje się niedostatecznie poinformowany o innowacyjnych planach firmy. Jako zdarzenia krytyczne związane z wykształconymi w przedsiębiorstwie trybami powiadamiania o krokach strategicznych zidentyfikowano:
−
odbywanie cotygodniowych narad z udziałem prezesa i kadry zarządzającej, podczas których „wszyscy omawiają ważne tematy i każdy swoje zagadnienia”,
−
odformalizowanie komunikacji: „u nas nie jest jak w typowej korporacji, że wszystko trzeba ubierać w kwestie dokumentów, to jest raczej zdecydowanie rozmowa”,
−
elastyczny i bezlękowy sposób komunikacji w sytuacjach kryzysowych: „jak się coś dzieje, to nawet jak bezpośredni wyższy szczebel jest niedostępny, to się dzwoni dalej aż do skutku, nigdy nie ma tak, żeby nie miał kto zareagować”, „jak ktoś coś zawali, to idzie spokojnie, mówi dlaczego i się szuka rozwiązania”,
−
wpływ charakteru pracy, wymuszającego ciągłe uczenie się, na zakres potrzeb informacyjnych pracownika: „tu się trzeba uczyć non stop, non stop (….), to nam nie musi się mówić, że teraz będzie nowa technologia, bo (…) przecież wjeżdża nowa maszyna i się kombinuje, aż się opanuje…”,
−
odwiedzanie hal produkcyjnych przez prezesa i osobiste informowanie (konsultowanie) w ważnych sprawach związanych z produkcją,
−
informowanie z wyprzedzeniem o możliwych konsekwencjach zmian w przedsiębiorstwie dla długości dziennego czasu pracy z uwagi na dobro życia rodzinnego „gdybym się dowiedział, że z powodu wdrożenia nowej technologii musiałbym zostawać dłużej, to byłoby bardzo kłopotliwe, bo (…) odwożę dzieci do szkoły i przedszkola, to bym musiał wiedzieć wcześniej”,
−
zaufanie do prezesa firmy, które kompensuje ewentualne luki informacyjne dotyczące planowanych przekształceń strategicznych,
−
konieczność informowania załogi o nadchodzących zmianach z uwagi na osobistą odpowiedzialność za rodziny pracowników, do jakiej poczuwa się kierownictwo.
Wybrane sposoby werbalizowania zdarzeń krytycznych zostały przedstawione w poniższych streszczeniach wypowiedzi respondentów, w których uwzględniono także okoliczności i wyniki zadania pytań pomocniczych.
O zaplanowanych w firmie przekształceniach pytany konstruktor mówi: „nie obawiam się, że to będzie jakaś zmiana, która w zdecydowany sposób zmieni profil firmy, (…) podejrzewam, że jeśli chodzi o mój zakres obowiązków, to tutaj nie będzie żadnych zmian”. Zmiana jest dla niego naturalną koleją rzeczy. W firmie wciąż wdraża się nowe rozwiązania, nowe oprogramowanie, nowe maszyny, dzieje się to na bieżąco i często dzieje się to w krótkim czasie. „Programów trzeba uczyć się od podstaw i uczymy się ich cały czas”. „Co projekt, to jest jakieś rozwiązanie indywidualne, które wymaga od pracowników uczenia się”. „Jesteśmy przyzwyczajeni do tych zmian, że za każdym razem coś tworzymy od zera. To nie jest constans. U nas jest cały czas tak naprawdę jakaś ewolucja”. W odpowiedzi na pytania pomocnicze konstruktor stwierdza, że przy wszelkich zmianach w firmie „jest poczucie dyskomfortu psychicznego, że zawalimy temat”, może dojść do konfliktów wśród pracowników, może dojść do błędów i może zabraknąć czasu na przygotowanie się: „musimy działać szybko”. „Jest dyskomfort psychiczny i świadomość, że coś na początku kuleje”. Rozmówca wyniósł doświadczenia z poprzednich miejsc pracy (w innych firmach) i na ich podstawie przyznaje, że „(…) to jest bardzo duży plus tej firmy, że staramy się unikać konfliktów. Jeżeli jest jakiś problem, rozmawiamy ze sobą i pomagamy sobie. Nawet jeżeli ktoś popełnił błąd, to przychodzi i mówi: «słuchaj zawaliłem (…)» i nie próbujemy gościa odstrzelić, tylko próbujemy znaleźć rozwiązanie, bo wiemy, że wszyscy jedziemy na tym samym koniku (…). Każdy w tej firmie popełnił jakiś błąd (…). Każdy ma tę świadomość, że gramy w jednym zespole i czyjś błąd jest problemem nas wszystkich, i my te problemy staramy się rozwiązywać”.
O zaplanowanej zmianie został poinformowany podczas jednej z cotygodniowych narad wewnętrznych. Szef osobiście pojawił się na zebraniu i przedstawił plany rozwoju firmy. Mówił jednak tylko o zakupie ziemi i budowie nowej hali, a nie o wdrożeniu nowej technologii. Respondent wyraził niepewność słowami: „nie wiem, na czym ma polegać ta nowa technologia. Czy zupełnie jakiś inny typ produkcyjny?. (…) nie sądzę, żebyśmy mieli teraz powiedzmy zupełnie zmienić branżę”. Respondent odniósł się do sytuacji słowami: „znam trochę, (…) na tyle szefa, wiem, że on jakby rozwija firmę i u nas zmiana technologii polegała zawsze na tym, że wprowadzaliśmy jakieś nowe rozwiązania, nową maszynę, u nas się to dzieje praktycznie non stop (…), ja tak to sobie tłumaczę, że na tym miałaby polegać jakaś nowa technologia. Być może w związku z tym, że wybuduje nową halę, będzie chciał jeszcze bardziej unowocześnić park maszynowy. Tak to sobie tłumaczę”.
Z kolei kierownik produkcji ma świadomość, że w związku z wdrożeniem nowej technologii pojawią się dodatkowe obowiązki, być może również problemy. Jest jednak do takiej sytuacji przyzwyczajony, mówi: „po to tutaj jesteśmy, aby je rozwiązywać, więc tutaj myślę, że nie powinno być z tego powodu jakichś dużych, dużych problemów”. Nowa technologia, dodaje, „na pewno jest wyzwaniem, które trzeba podjąć, bo trzeba się rozwijać”. „Ekipa i zespół ludzi, którymi w jakiś sposób kieruję, jest na tyle otwarta i chętna na to, żeby uczyć się nowych rzeczy, że rokuje raczej dobrze”. Respondent nie przewiduje sytuacji konfliktowych. W okresie wieloletniego zatrudnienia w firmie i uczestniczenia w ciągłych zmianach widział, jak zespół integrował się i radził sobie w nowych okolicznościach. W jego opinii ani nowa technologia, ani nowa siedziba „nie powinny stanowić problemu”. Warunki pracy będą lepsze od dotychczasowych, więc „będzie to z korzyścią dla ludzi i dla (…) atmosfery”. Wypowiada się o zmianach, szczególnie o nowej technologii, w kategoriach zdarzeń normalnych, typowych i pożądanych: „Kilka już, może nie tak zaawansowanych, wchodziło już różnych rozwiązań, różnych nowych systemów, (…) tutaj dość ludzie są otwarci na to, że się pojawia coś nowego. Jest to naturalna rzecz. Firma się rozwija, co też, myślę, jakoś stanowi komfort, że więcej zleceń, możliwości pracy (…)”.
Kierownik produkcji akceptuje i ceni relacje pomiędzy nim a zwierzchnikami (konstruktorami), od których dostaje wytyczne. Czuje się partnerem w procesach decyzyjnych, bez oporów składa propozycje, które mogą usprawnić proces produkcyjny. Ma pewność, że zostanie wysłuchany. Nie umie wskazać ewentualnych zagrożeń i słabych stron wdrożenia nowej technologii. Widzi natomiast korzyść: w wyniki wdrożenia technologii firma pozyska nowych klientów, którym dotychczas musiała odmawiać z powodu ograniczeń wytwórczych i lokalowych. Rozmówca zakończył rozmowę jednoznaczną, zdecydowaną odpowiedzią: „tak, wdrażamy”, i jest przekonany, że cały zespół też tak uważa. „Nie słyszałem w głosach takich, w których ktoś jasno by deklarował, że to jest niedobre, że to jest zatrzymanie się, cofnięcie w jakimś tam rozwoju. Raczej pozytywnie zostaje to odbierane, z tego co wiem (…), myślę, że raczej pozytywnie wszystko”.
Również badany ślusarz wie o zaplanowanych zmianach i wiedza ta nie wywołuje u niego dyskomfortu, uczucia niepokoju; odczuwa raczej radość. „Będzie coś nowego, coś innego i będziemy się z tym mierzyć. Takie jest moje zdanie na ten temat”. „Czasami jest tak, że jest takie zwątpienie, (…) jak to zrobimy i jak to będzie, ale nie było takiego, że się powiedziało nie (…), tylko się drąży temat (…). Wydaje mi się, że pod tym względem jest tutaj dobrze dobrana załoga (…), no więc się zastanawiamy i kombinujemy jak to zrobić”. „Współpraca jest na tyle dobra, że każdy rozumie, że to trzeba zrobić dobrze. Tu nikt nie forsuje na siłę swojego zdania i obstaje przy nim. Tak to nie działa. Wybiera się lepsze rozwiązanie”. Pomocna jest „dobrze dobrana załoga”. W wypowiedziach ślusarza wybrzmiał szacunek i zaufanie do szefa firmy, inicjatora zmian. „Jestem przekonany, że jeśli chodzi o szefa, który to wszystko wymyśla (…), on na pewno chce, żeby to wszystko było dobrze, żeby to był rozwój firmy, żeby (…) to wszystko dążyło do tego, żeby firma się rozwijała (…), bo bez rozwoju, to albo jest stagnacja, cofamy się (…), albo po prostu idziemy, nowe rzeczy robimy, bardziej skomplikowane i bardziej rozbudowane”. „Ja tutaj wierzę, mam zaufanie, że szef to robi tak, żeby się firma rozwijała. Natomiast wiadomo, po drodze może być różnie, dużo rzeczy się wydarzyć (…), ale jeśli chodzi o sam zamysł, same intencje, (…) liczę, że szef podejmuje dobrą decyzję”.
Wypowiedź ślusarza, pracownika produkcji, który własnymi rękami będzie wdrażał planowaną innowację technologiczną, potwierdza wcześniej anonsowane przypuszczenie, że w sferze wykonawczej firma X rządzi się strategią brikolażu. W dziedzinie zarządzania przedsiębiorstwem brikolaż (od francuskiego bricolage) jest określany m.in. jako strategia dostosowawczo-odpornościowa oparta na umiejętności optymalnego wykorzystania dostępnych zasobów (resourcefulness) przez rekombinację metodą prób i błędów, majsterkowanie, sztukowanie, wyzyskiwanie do ostatka wszystkiego, co tylko ma się na podorędziu (bric-à-brac remains) (Douglas, 1986, s. 67). W odpowiedzi na zaskakujące okoliczności, także potencjalnie niebezpieczne, bricoleur jest zdolny do samodzielnego zmobilizowania wszelkich rozporządzanych środków (“making do by applying combinations of the resources at hand to new problems and opportunities”) (Baker, Nelson, 2005, s. 333). W kulturze organizacyjnej strategia brikolażu koreluje na płaszczyźnie wartości z niezgodą na kapitulację („Jak nie ja, to kto?”) i powinnością czynnego opierania się naciskom otoczenia (Di Domenico, Tracey, Haugh, 2010, s. 686).
Wnioski
Badania metodą zdarzeń krytycznych korpusu zestawionego z transkrypcji wywiadów z właścicielem i pracownikami firmy różnych szczebli pozwoliły na sformułowanie kilku konkluzji.
1.
Nie wykryto zdarzeń krytycznych związanych z działaniem systemu informacyjnego przedsiębiorstwa, które należałoby uznać za ujemne predyktory powodzenia planowanej innowacji, toteż uznano za niecelowe sugerowanie działań naprawczych lub zapobiegawczych.
2.
Zauważono prawidłowości świadczące o tym, że w firmie ukształtowała się kultura organizacyjna, której osią jest dostosowawczo-odpornościowa strategia brikolażu opisywana w literaturze naukowej z zakresu nauk o zarządzaniu.
3.
Stwierdzono, że pracownicy i kierownictwo firmy działają w trybie ciągłej gotowości na zmiany, które postrzegają jako mogące nadejść w każdej chwili (imminens), przynależne do istoty organizacji i będące kołem zamachowym jej funkcjonowania (immanens), a w następstwie pozbawione a priori rysów zagrożenia.
4.
Stycznie do wniosków 3. i 4. stwierdzono, że w firmie utrwalony jest model zarządzania antykryzysowego, który z uwagi na nieusuwalną zmienność środowiska jej funkcjonowania, przeszedł w rutynę codzienną, obowiązuje jako zwyczajny, nie ma charakteru działań wyjątkowych podejmowanych w odpowiedzi na sytuacje przełomowe.
5.
Stwierdzono, że zarządzanie antykryzysowe w firmie sprzęga się zwrotnie, na zasadzie wzajemnego wzmacniania, z następującymi cechami panującej w niej kultury organizacyjnej brikolażu:a)
elastyczność i adaptacyjność charakterystyczną dla struktur organicznych (brikolaż jest strategią pierwotną),
b)
konieczność tworzenia nieformalnych sieci powiązań i komunikacji skrośnej,
c)
konieczność podejmowania szybkich decyzji bez posiadania pełnego zbioru informacji,
d)
kształtowanie u pracowników otwartości na zmiany,
e)
umiejętność budowania zespołu oraz aktywności,
f)
skupienie na integracji członków organizacji umożliwiającej skuteczne zarządzanie wiedzą,
g)
utożsamianie się pracowników z organizacją,
h)
zgodność indywidualnych norm i wartości z występującymi w organizacji,
i)
zaufanie pomiędzy kierownictwem a pracownikami (Czarnecki, Starosta, 2015, s. 21).
6.
Nie ujawniono ryzyka związanego z obszarem kultury organizacyjnej przedsiębiorstwa, które w naukach o zarządzaniu uznaje się za najsilniej warunkujący skuteczność zarządzania antykryzysowego, bo najtrudniejszy do rozpoznania i opanowania, a mianowicie z obszarem emocji (por. rys. 1):
Rysunek 1. Poziomy podsystemów zarządzania antykryzysowego
Źródło: Mitroff, Ian I.; Pearson, Christine M. (1998). Zarządzanie sytuacją kryzysową, czyli jak ochronić firmę przed najgorszym. Warszawa: Business Press, s. 82
Wniosek o braku ryzyk w podsystemie emocji oparto na ilościowo-jakościowej analizie językowej materiału empirycznego, w wyniku której stwierdzono:
a)
ogólne uczuciowe wychłodzenie ekspresji słownej,
b)
wyraźny opór przed wyrażaniem reakcji uczuciowych wprost, w sposób spolaryzowany,
c)
celowe zobojętnianie wydźwięku słów nacechowanych emocjonalnie przez zastępowanie ich pojęciami z kręgu semantycznego spokoju, wyważenia, rozsądku, normalności, zwyczajności,
d)
znikomy udział ilościowy wskaźników emocji negatywnych,
e)
odporność na próby sprowokowania wyrazów emocji negatywnych,
f)
wyraźne preferowanie rozważań o wartościach zamiast rozważań o emocjach.
7. Wykazano poznawczą przydatność zabiegu polegającego na identyfikacji zdarzeń krytycznych w materiale z wywiadów częściowo ustrukturyzowanych za pomocą kryteriów wyprowadzonych z typologii aktów mowy.
Bibliografia
1.
Austin, John L. (1993). Mówienie i poznawanie. Rozprawy i wykłady filozoficzne. Warszawa: Wydawnictwo Naukowe PWN.
2.
Baker, Ted; Nelson, Reed E. (2005). Creating something from nothing: resource construction through entrepreneurial bricolage. Administrative Science Quarterly, vol. 50, issue 3, pp. 329–366.
3.
Chan, Kim W.; Mauborgne, Renée (2010). Strategia błękitnego oceanu: jak stworzyć wolną przestrzeń rynkową i sprawić, by konkurencja stała się nieistotna. Warszawa: Wydawnictwo MT Biznes.
4.
Cisek, Sabina (2015). Technika zdarzeń krytycznych w badaniach Information Literacy w XXI wieku. https://www.slideshare.net/sabinacisek/technika-zdarzen-krytycznych-w-badaniach-information-literacy-w-xxi-wieku (odczyt: 02.03.2017).
5.
Czarnecki, Maciej; Starosta, Anna (2015). Niedopasowanie kultury organizacyjnej jako bariera we wdrażaniu działań antykryzysowych – studium przypadku. Management Forum, vol. 3, nr 2, s. 19-24.
6.
Deleuze, Gilles; Guattari, Félix (1987). A thousand plateaus: capitalism and schizophrenia. Minneapolis: University of Minnesota Press.
7.
Di Domenico, MariaLaura; Tracey, Paul; Haugh, Helen (2010). Social bricolage: theorizing social value creation in social entreprises. Entrepreneurship, Theory and Practice, vol. 34, issue 4, pp. 681-703. doi: 10.1111/j.1540-6520.2010.00370.x http://onlinelibrary.wiley.com/doi/10.1111/j.1540-6520.2010.00370.x/epdf (odczyt: 10.04.2017).
8.
Douglas, Mary (1986). How institutions think. London: Routledge & Kegan Paul.
9.
Ejsmunt-Wieczorek, Izabela (2016). Tautologia przedrostków werbalnych w gwarach. Rozprawy Komisji Językowej ŁTN, t. LXIII, s. 5-16.
10.
Ernt, Joanna (2012). Deprecjacja jako forma przemocy w komunikacji werbalnej. Homines Hominibus, vol. 8, nr 1, s. 195–208.
11.
Flanagan, John C. (1954). The critical incident technique. Psychological Bulletin, vol. 51, issue 4, pp. 327-358.
12.
Mitroff, Ian I.; Pearson, Christine M. (1998). Zarządzanie sytuacją kryzysową, czyli jak ochronić firmę przed najgorszym. Warszawa: Business Press.
13.
Prokopowicz, Piotr; Żmuda, Grzegorz; Król, Marianna (2014). Kompetencyjne testy sytuacyjne w rekrutacji, selekcji i ocenie pracowników. Teoria i zastosowanie. Warszawa: Oficyna a Wolters Kluwer business.
14.
Semetsky, Inna (2003). Philosophy of education as a process-philosophy: eros and communication. Concrescence. The Australasian Journal of Process Thought, vol. 4, pp. 23-34.
15.
Semetsky, Inna (2008). The transversal communication, or: reconciling science and magic. Cybernetics And Human Knowing, vol. 15, issue 2, pp. 33-48.
16.
Varela, Francisco J. (1979). Principles of Biological Autonomy. New York: North Holland.
17.
Walas-Trębacz, Janusz; Ziarko, Jolanta (2011). Podstawy zarządzania kryzysowego. Część 2: Zarządzanie kryzysowe w przedsiębiorstwie. Kraków: Oficyna Wydawnicza AFM.
18.
Zdunkiewicz, Dorota (1993). Akty mowy. W: Jerzy Bartmiński red. Współczesny język polski. Wrocław: Wiedza o Kulturze, s. 259-270.
Agnieszka Długosz-Pysz
Instytut Informacji Naukowej i Bibliotekoznawstwa,
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Badania satysfakcji użytkowników archiwów w świetle projektu Archival Metrics
User-based evaluation of archives in the scope of the Archival Metrics Project
Słowa kluczowe: kultura oceny, satysfakcja użytkowników, użytkownicy archiwów.
Keywords: culture of assessment, users of archives, user satisfaction.
Abstrakt
Celem artykułu jest prezentacja celów, założeń i rezultatów zainicjowanego w Ameryce Północnej projektu Archival Metrics, w wyniku którego opracowano zestaw narzędzi badawczych umożliwiających archiwistom i pracownikom oddziałów rękopisów zbieranie i analizę opinii użytkowników na temat produktów i usług informacyjnych świadczonych przez archiwa. Ocenie klientów podlega m.in. działalność edukacyjna instytucji, serwis WWW, elektroniczne pomoce archiwalne, organizacja udostępniania zasobu i informacji. Na wstępie przybliżono zagadnienie budowania kultury oceny w instytucji. Następnie przeanalizowano piśmiennictwo dotyczącego projektu Archival Metrics oraz dokonano charakterystyki zestandaryzowanych formularzy ankiet, udostępnianych bezpłatnie na stronie przedsięwzięcia. Uznano, że wykorzystanie opracowanych narzędzi badawczych może pomóc w planowaniu działań służących poprawie jakości usług lub produktów oferowanych przez archiwa i odziały rękopisów bibliotek.
Abstract
The aim of this article is to present the objectives, assumptions and results of the North American Archival Metrics Project. As a result of the initiative, a set of survey instruments was developed to support archivists and manuscript curators in collecting and analysing users’ feedback on the services and information products provided by the archives and manuscript repositories. Users can evaluate: educational services, the repository website, online finding aids, access to holdings and information. At the beginning, the concept of a culture of assessment was discussed. Then, existing literature on the Archival Metrics Project was presented and standardised, validated questionnaires for user-based evaluation of archives were characterised. On this basis it was concluded that the survey instruments created by the Archival Metrics Project participants can help archivists improve the quality of user services and information products.
Projekt Archival Metrics w kontekście problematyki kształtowania w instytucji kultury oceny
Według Katarzyny Materskiej, zarządzanie informacją w perspektywie bibliotecznej, skupia się na „zarządzaniu informacyjnymi zasobami (…) i usługami, w celu ich udostępniania (…) użytkownikom” (Materska, 2013, s. 177). Wydaje się, że stwierdzenie to można odnieść również do archiwów, bowiem ich działalność w ujęciu systemowym (Cook, 1986, s. 31-34) koncentruje się wokół czterech podstawowych procesów: gromadzenia, przechowywania, opracowania i udostępniania zasobu archiwalnego, który z punktu widzenia informatologii traktować można jako zbiór źródeł informacji (Gołembiowski, 1985, s. 17-28).
Dynamiczne zmiany zachodzące obecnie w otoczeniu archiwów, spowodowane m.in. gwałtownym rozwojem technologii informacyjno-komunikacyjnych i powstaniem społeczeństwa informacji i wiedzy, zmuszają je do podejmowania szeregu procesów adaptacyjnych. By instytucje prowadzące działalność archiwalną efektywnie i skutecznie wypełniały powierzone im funkcje, archiwiści coraz chętniej czerpią z osiągnięć innych dyscyplin. Przejawiają między innymi zainteresowanie nowymi koncepcjami, metodami i technikami zarządzania rozwiniętymi na gruncie nauk o organizacji i zarządzaniu oraz dorobkiem i doświadczeniami bibliologów i informatologów, co wynika, jak wcześniej zasygnalizowano, z częściowego pokrywania się obszarów działalności, funkcji i zadań bibliotek i archiwów. Przykładem takiej postawy jest rozwijany w latach 2005-2011 międzyinstytucjonalny projekt Archival Metrics (Archival Metrics), angażujący naukowców z trzech uczelni w Ameryce Północnej: University of Michigan, University of North Carolina-Chapel Hill i University of Toronto. Uczestnicy przedsięwzięcia to badacze zainteresowani poprawą dostępu do zasobu archiwalnego, poznaniem zachowań informacyjnych użytkowników materiałów archiwalnych oraz rozwijaniem skutecznych metod kształcenia klientów archiwów.
Informacje o celach projektu znaleźć można na jego oficjalnej stronie pod adresem http://www.archivalmetrics.org. Zgodnie z założeniami inicjatorów, w wyniku prac zespołu miał powstać zestaw poddanych walidacji narzędzi pomiaru opinii użytkowników materiałów archiwalnych. Ich wykorzystywanie w różnego typu placówkach archiwalnych i oddziałach rękopisów bibliotek ma umożliwić dokonywanie analiz i przeprowadzanie porównań funkcjonowania instytucji przechowujących i udostępniających archiwalia. Jak zaznaczają autorzy, pozwoli to zidentyfikować najlepsze praktyki, co w konsekwencji ułatwi poprawę jakości produktów i usług oferowanych użytkownikom archiwów (Archival Metrics).
Nadrzędnym celem projektu jest budowanie i promocja kultury oceny (culture of assessment) w archiwach. Kulturę taką uznaje się za jeden z elementów kultury organizacyjnej, której przejawem są, jak wynika z różnych definicji, specyficzne dla określonej zbiorowości zachowania, wzory myślenia, normy postępowania, wyznawane wartości, wspólne poglądy, postawy i oczekiwania (Bednarski, Wawak, Orlińska, 2017). Odpowiednio ukształtowana kultura organizacyjna odgrywa ważną rolę w procesie wprowadzania zmian w organizacji.
Czym jest zatem kultura oceny? W polskiej literaturze przedmiotu przybliżyła to pojęcie Ewa Głowacka, zgłębiająca kompleksowo problematykę kultury oceny w bibliotekach (Głowacka, 2015). Autorka, przytaczając poglądy amerykańskiego bibliotekarza Amosa Lakosa, uznaje ją za specyficzny rodzaj kultury organizacyjnej, w której podstawą procesów decyzyjnych są informacje z badań i ocen jakości funkcjonowania organizacji. W kulturze takiej „działania i usługi są projektowane z uwzględnieniem analizy ich wpływu na klientów i beneficjentów”, a instytucja jest „maksymalnie skoncentrowana na potrzebach użytkowników” (Głowacka, 2015, s. 9).
Przywołane wyżej pojęcia są ściśle powiązane z koncepcją organizacji uczącej się. Mianem takim określa się instytucję, która odznacza się m.in.: sprawnością w zakresie kreowania, zdobywania, przekazywania i wykorzystywania wiedzy, zdolnościami adaptacyjnymi, otwartością na zmiany i nowe rozwiązania, dbałością o rozwój pracowników, umiejętnością zespołowego uczenia się, stałym podnoszeniem jakości usług (Materska, 2007, s. 132-142; Wojciechowska, 2006, s. 164-165 ).
W oparciu o zaprezentowane poglądy można stwierdzić, że punktem wyjścia do tworzenia kultury oceny w archiwach jest stawianie w centrum uwagi użytkowników, czego wyrazem jest stałe aktualizowanie wiedzy o ich bieżących oraz potencjalnych potrzebach i oczekiwaniach, a także stopniu ich zaspokojenia. Wymaga to podejmowania systematycznych badań w tym obszarze, a następnie wykorzystywania zdobytej wiedzy do poprawy jakości oferty.
Archiwa, w ramach przypisanych im funkcji, udostępniają materiały archiwalne oraz informacje o nich. W zakresie ich działalności informacyjnej mieści się także: kształcenie użytkowników, pomoc w prowadzeniu badań i doborze materiałów źródłowych, odpowiadanie na zapytania, promocja i popularyzacja zasobu archiwalnego (Pugh, 1992, s. 6-8). Z perspektywy marketingowej placówki archiwalne należą więc do instytucji usługowych (Jabłońska, 2016, s. 72). Przyjmując ten punkt widzenia, w ich ofercie można wyróżnić zarówno produkty (np. wydawnictwa własne archiwum), usługi (np. działalność edukacyjna) oraz ich kombinacje (np. udostępnianie zasobu) (Jabłońska, 2016, s. 86-88).
Powszechnie stosowaną praktyką, także w instytucjach non profit, stało się badanie poziomu zadowolenia klientów z oferowanych dóbr i usług. Wyniki takich inicjatyw mogą dostarczyć kadrze zarządzającej wielu cennych informacji. W opracowanym przez Stowarzyszanie Bibliotekarzy Polskich poradniku dotyczącym przeprowadzania badań satysfakcji użytkowników bibliotek wymienione zostały trzy obszary zarządzanie działalnością organizacji, w których uzyskane rezultaty są szczególnie przydatne: analiza strategiczna, wspieranie procesów decyzyjnych (przede wszystkim odnośnie ewentualnych działań naprawczych lub korygujących), działalność marketingowa (Kędzierska, Zawałkiewicz, 2014, s. 3).
Satysfakcja klienta to pojęcie ściśle związane z koncepcją jakości usług. Według Marii Sidor, która dokonała przeglądu i analizy piśmiennictwa dotyczącego tej problematyki w odniesieniu do bibliotek, są to jednak dwie odrębne konstrukcje. Jakość oznacza „długotrwałą, ogólną cechę”, podczas gdy satysfakcja „reprezentuje krótki termin, pomiar specyficznej transakcji.” Pomiar jakości usług zalicza autorka do narzędzi planowania strategicznego, a ocenę satysfakcji klienta traktuje jako narzędzie diagnozy (Sidor, 2005, s. 43). W praktyce bibliotekarskiej satysfakcja użytkowników uznawana jest za istotny, choć oczywiście nie jedyny, wyznacznik jakości usługi (Głowacka, 2006, s. 49).
Należy także pamiętać, że zadowolenie klienta jest wypadkową wielu nakładających się na siebie czynników. Są to zarówno obiektywne cechy produktu lub usługi oraz wymagania, doświadczenia i osobiste preferencje użytkownika (Sidor, 2005, s. 43).
Tworzenie narzędzi badawczych
W piśmiennictwie naukowym można wyróżnić pewną grupę prac teoretycznych i empirycznych poświęconych użytkownikom instytucji prowadzących działalność archiwalną (Długosz-Pysz, 2015, s. 46-71). Publikacje te są wyrazem odchodzenie od tradycyjnego paradygmatu archiwalnego, który koncentruje się na zasobie archiwalnym. Ich autorzy stoją na stanowisku, że projektowanie systemów informacji archiwalnej oraz oferowanych przez archiwa usług powinno odbywać się w oparciu o oceny i badania użytkowników. Powyższy dorobek literaturowy, jak się wydaje, stanowi dobrą podstawę teoretyczną dla prac koncepcyjnych nad tworzeniem narzędzi oceny satysfakcji klientów archiwów.
Jednym z wyzwań w zakresie opracowania metodologii badań satysfakcji użytkowników archiwów jest duże zróżnicowanie instytucji prowadzących działalność archiwalną. Za przykład tej różnorodności może posłużyć typologia zaproponowana przez Marlenę Jabłońską. Opierając się na trzech kryteriach podziału: drodze akcesji archiwaliów, formie organizacji instytucji i sposobie finansowania, wyróżniła ona:
−
archiwa będące samodzielnymi instytucjami,
−
archiwa stanowiące komórki organizacyjne,
−
archiwa społeczne i ośrodki dokumentacyjne,
−
archiwa będące instytucjami komercyjnymi (Jabłońska, 2016, s. 133).
Przygotowanie trafnych i rzetelnych narzędzi pomiaru zadowolenia użytkowników archiwów bez wątpienia wymaga także dobrej znajomości metodyki pracy archiwalnej – zwłaszcza w obszarze opracowania i udostępniania zasobu archiwalnego – której charakter wynika ze specyficznych cech i różnorodnych funkcji materiałów archiwalnych.
Uczestnicy projektu Archival Metrics poszukiwali rozwiązań modelowych zarówno na gruncie archiwistyki, jak i bibliotekarstwa. W pierwszym przypadku bazowano na osiągnięciach The Public Service Quality Group for Archives and Local Studies. Jest to działająca w Wielkiej Brytanii pozarządowa organizacja zrzeszająca profesjonalistów zainteresowanych poprawą jakości usług świadczonych przez instytucje archiwalne. Z jej inicjatywy od 1998 r. organizowane są w skali kraju cykliczne (od 2001 r. odbywające się co 18 miesięcy) badania satysfakcji klientów archiwów pod nazwą The National Survey of Visitors to U.K. Archives. Od roku 2012 badaniami objęci zostali użytkownicy kontaktujący się z archiwistami za pomocą narzędzi sieciowych (ankietyzacja nosi nazwę The Survey of Distance Users of Enquiry Service). Obydwa przedsięwzięcia są obecnie koordynowane przez The Archives and Records Association (UK & Ireland).
Bardzo cenne okazały się także doświadczenia środowiska bibliotekarskiego, gdzie tradycja diagnozowania satysfakcji użytkowników z jakości świadczonych usług jest już stosunkowo długa, a dorobek literaturowy z tego zakresu bardzo obszerny. Dla realizatorów projektu wzorem stał się dostępny odpłatnie zestaw narzędzi i usług LibQUAL+ (LibQUAL+), którego tworzenie zainicjowało w 1999 r. Amerykańskie Stowarzyszenie Bibliotek Naukowych (Association of Research Libraries). Oferowany online produkt umożliwia systematyczne pozyskiwanie i analizowanie opinii użytkowników na temat jakości usług biblioteczno-informacyjnych.
Dokonano ponadto przeglądu i analizy narzędzi przeznaczonych do pomiaru satysfakcji użytkowników z witryn internetowych, m.in. WebQUAL i WAMMI.
Jak wskazuje przywołany wcześniej podział typologiczny, instytucje archiwalne stanowią grupę niejednorodną. Pierwsza faza projektu Archival Metrics, realizowana ze środków Andrew W. Mellon Foundation, dedykowana została archiwom uczelnianym oraz oddziałom rękopisów bibliotek szkół wyższych. Tworzenie zestawu narzędzi służących do poznania opinii klientów tych instytucji przebiegało w kilku etapach. W pierwszej kolejności skupiono się na rozpoznaniu dotychczasowych działań archiwistów w zakresie pomiaru zadowolenia użytkowników oraz poznaniu ich stosunku do tego typu inicjatyw. W tym celu przeprowadzono sesje fokusowe z udziałem przedstawicieli różnych placówek archiwalnych. Scenariusz wywiadu obejmował trzy obszary problemowe: pożądane informacje o użytkownikach, możliwe sposoby ich wykorzystania, metody pozyskiwania opinii od użytkowników korzystających z archiwów cyfrowych (Duff i in., 2008, s. 148).
Badania dostarczyły wielu cennych wniosków, a najważniejsze z nich warto przytoczyć. Przede wszystkim zauważono potrzebę skonstruowania standardowych, poddanych walidacji narzędzi umożliwiających długofalowe badania poziomu satysfakcji różnych kategorii użytkowników materiałów archiwalnych. Stwierdzono, że szczególnie dużo uwagi należy poświęcić gromadzeniu danych od odbiorców usług wirtualnych, ponieważ ich oczekiwania i potrzeby są jak dotąd najmniej rozpoznane. Zwrócono ponadto uwagę na korzyści, jakie może przynieść nawiązywanie współpracy i budowanie sieci partnerstw pomiędzy archiwistami i badaczami zgłębiającymi problematykę użytkowników archiwów. Taka kooperacja pozwoliłaby rozwinąć wysokiej jakości narzędzia badawcze, pozwalające pozyskiwać wartościowe dane. Uznano, iż planując ewentualne działania naprawcze lub korygujące, należy skupić się na usługach i systemach, które według personelu można zmienić lub udoskonalić stosunkowo niskim kosztem (na przykład strona internetowa instytucji czy interfejs pomocy archiwalnych) (Duff i in., 2008, s. 161-164).
Opracowując narzędzia pomiaru, bazowano na przeglądzie piśmiennictwa oraz danych pozyskanych w oparciu o indywidualne wywiady z użytkownikami i pracownikami archiwów uczelnianych (Duff i in., 2010, s. 571-577). Zgromadzony i przeanalizowany materiał pozwolił określić problematykę badawczą i dokonać operacjonalizacji problemów. Realizatorzy projektu zdefiniowali produkty oraz usługi, które dla użytkowników archiwów są szczególnie istotne, a następnie opracowali model wyznaczający ramy koncepcyjne dalszych prac. (rys. 1) (Duff i in., 2010, s. 577-579).
Rysunek 1. Model konceptualny opracowany w ramach projektu Archival Metrics
narzędzia dostępu do zasobu
Źródło: Duff, Wendy, i in. (2010). The development, testing, and evaluation of the archival metrics toolkits. American Archivist, vol. 73, issue 2, p. 578. (tłum. autorki)
Zasadniczą część modelu tworzą trzy typy interakcji, w jakie wchodzi użytkownik materiałów archiwalnych:
−
„z personelem archiwum (with the archives staff),
−
z archiwum (jako miejscem) i jego zasobami (with the physical repository),
−
z narzędziami dostępu oferowanymi przez archiwa lub odziały zbiorów specjalnych (with the access tools of the archives or special collections) (np. strona internetowa albo dostępne w sieci inwentarze)” (Duff i in., 2010, s. 578).
Interakcje te wyznaczają podstawowe obszary badań satysfakcji użytkowników. W centrum modelu umieszczono kontekst, w ramach którego klient korzysta z archiwum uczelnianego. Składają się na niego: doświadczenie w użytkowaniu archiwaliów, pełniona funkcja (status w środowisku akademickim), cel wizyty. W oparciu o powyższe zmienne rozwinięto zestaw pytań pozwalających określić profil użytkownika.
Charakterystyka narzędzi kwestionariuszowych
W pierwszej fazie projektu Archival Metrics, poświęconej archiwom uczelnianym i oddziałom rękopisów bibliotek szkół wyższych, opracowano pięć standardowych kwestionariuszy ankiet skierowanych do różnych kategorii klientów:
−
badaczy korzystających z archiwaliów na miejscu w pracowni naukowej lub czytelni (the researcher questionnaire),
−
studentów korzystających z archiwaliów w celach edukacyjnych (the student researcher questionnaire),
−
nauczycieli akademickich wykorzystujących archiwalia w działalności dydaktycznej (the teaching support questionnaire),
−
użytkowników strony internetowej instytucji (the website questionnaire),
−
użytkowników dostępnych w sieci elektronicznych inwentarzy (the online finding aids questionnaire) (Archival Metrics Toolkits).
Zgodnie z przyjętymi założeniami, ocenie respondentów podlega satysfakcja bieżąca. W kwestionariuszu skierowanym do badaczy pytania odnoszą się do aktualnej wizyty w archiwum, z kolei studenci i nauczyciele akademiccy proszeni są o wyrażenie opinii o korzystaniu z archiwalnych usług, produktów i zasobów w obecnym semestrze. W narzędziach badawczych przeznaczonych do ewaluacji strony internetowej i elektronicznych inwentarzy pytania dotyczą ostatnich doświadczeń respondentów w użytkowaniu tych produktów.
Kwestionariusze zostały podzielone na sekcje tematyczne. Każda ankieta zawiera zarówno pytania zamknięte, otwarte jak i półotwarte. W oparciu o nie można gromadzić dane o samych użytkownikach, jak i zebrać ich oceny i opinie na temat oferty archiwum lub oddziału rękopisów biblioteki. Pytania dotyczą przede wszystkim percepcji dostępnych usług i produktów przez użytkowników, choć dzięki wprowadzeniu pytań otwartych respondenci mają możliwość opisania swoich wymagań i oczekiwania. We wszystkich pięciu kwestionariuszach zamieszczono pytania zamknięte z pięciopunktową skalą liczbową. Pozwalają one ankietowanym wyrazić poziom satysfakcji z usługi (bądź całości usług) oraz ocenić wyselekcjonowane cechy i funkcje świadczące o użyteczności oferowanych produktów informacyjnych (witryny internetowej, pomocy archiwalnych).
Każdy kwestionariusz zaopatrzono w zestaw wytycznych dotyczących organizacji badania, przetwarzania uzyskanych danych, ich analizy oraz prezentacji otrzymanych wyników. W dostępnych materiałach znaleźć można m.in. wskazówki odnośnie technik doboru próby i dystrybucji ankiety, instrukcję kodowania danych, szablon arkusza kalkulacyjnego ułatwiający przygotowanie danych do analizy, przykładowy raport z badań.
Od 2008 r., po serii badań pilotażowych w instytucjach partnerskich, opracowane narzędzia badawcze udostępniane są bezpłatnie na licencji Creative Commons na stronie projektu Archival Metrics pod adresem https://sites.google.com/a/umich.edu/archival-metrics/home/the-toolkits.
W drugiej fazie przedsięwzięcia, dedykowanej archiwom państwowym (Yakel i in., 2012) przygotowano dwa kolejne narzędzia:
−
skonsolidowany kwestionariusz ankiety do oceny witryny WWW archiwum oraz dostępnych z jej poziomu elektronicznych pomocy archiwalnych (website/finding aids questionnaire),
−
kwestionariusz ankiety przeznaczony do badań wpływu zasobów i usług świadczonych przez archiwa państwowe na otoczenie społeczno-ekonomiczne (the economic impact survey) (Archival Metrics Toolkits).
W udostępnianym na stronie projektu katalogu narzędzi badawczych można obecnie znaleźć także zestaw plików mający pomóc archiwistom zainteresowanym poznaniem opinii użytkowników w przeprowadzaniu zogniskowanych wywiadów grupowych. Składa się na niego: przewodnik po metodzie wraz z przykładowym scenariuszem sesji dotyczącym wykorzystania mediów społecznościowych w instytucjach prowadzących działalność archiwalną.
Zakończenie
Diagnozowanie satysfakcji klientów i wykorzystywanie uzyskanych rezultatów do poprawy jakości oferowanych produktów i usług jest jednym z istotnych przejawów budowania w instytucji kultury oceny. Jak wspomniano na początku, tworzenie takiej kultury wymaga skoncentrowania się na użytkownikach, a co za tym idzie, ciągłego monitorowania ich potrzeb, wymagań i oczekiwań. W przypadku archiwów jest to o tyle ważne, że w obliczu zachodzących współcześnie przemian o charakterze technologicznym i społeczno-kulturowym poszerzyło się grono ich rzeczywistych i potencjalnych klientów. W środowisku profesjonalnym zaczęto mówić o nowym profilu użytkownika archiwum, bowiem materiały archiwalne są coraz częściej wykorzystywane przez osoby nieposiadające profesjonalnego przygotowania – w celach hobbystycznych, czy nawet rozrywkowych (Jabłońska, 2016, s. 52). Konsekwencją tego są nowe sposoby użytkowania archiwów i informacji. Niewątpliwą zaletą projektu Archival Metrics jest przygotowanie narzędzi kwestionariuszowych skierowanych do odbiorców zarówno tradycyjnych, jak i cyfrowych produktów i usług.
Opracowany przez uczestników projektu ogólnodostępny katalog poddanych walidacji narzędzi, w oparciu o które można pozyskiwać opinie od różnych grup użytkowników, z całą pewnością może zachęcić archiwistów i pracowników oddziałów rękopisów do podejmowania inicjatyw badawczych. Dowodem na to są opublikowane raporty i komunikaty z badań, w których wykorzystano materiały udostępniane na stronie Archival Metrics (np. Bakkalbasi, Wilk, 2015; Griffin, Lewis, Greenberg, 2012).
Bibliografia
1.
Archival Metrics. http://www.archivalmetrics.org (odczyt: 28.06.2017).
2.
Archival Metrics Toolkits. https://sites.google.com/a/umich.edu/archival-metrics/home/the-toolkits (odczyt: 28.06.2017).
3.
Bakkalbasi, Hayrunnisa H.; Wilk, Jocelyn K. (2015). Getting to know you (and me!): assessment and the Archival Metrics Toolkit at Columbia University’s Rare Book and Manuscript Library. In: Proceedings of the 2014 Library Assessment Conference: Building Effective, Sustainable, Practical Assessment, August 4-6, 2014, Seattle, WA. Washington: Association of Research Libraries, pp. 194-203. doi:10.7916/D89K4B27. https://academiccommons.columbia.edu/catalog/ac:194854 (odczyt: 28.06.2017).
4.
Bednarski, Marian; Wawak, Sławomir; Orlińska, Dorota (2017). Kultura organizacyjna. W: Encyklopedia zarządzania. https://mfiles.pl/pl/index.php/Kultura_organizacyjna (odczyt: 28.06.2017).
5.
Cook, Michael (1986). The management of information from archives. Aldershot, Brookfield: Gower.
6.
Długosz-Pysz, Agnieszka (2015). Zachowania informacyjne użytkowników spuścizn archiwalnych. Praca doktorska (maszynopis).
7.
Duff, Wendy; Dryden, Jean; Limkilde, Carrie; Cherry, Joan; Bogomazova, Ellie (2008). Archivists’ views of user-based evaluation: benefits, barriers, and requirements. American Archivist, vol. 71, issue 1, pp. 144-166. doi:10.17723/aarc.71.1.y70837374478t146 (odczyt: 28.06.2017).
8.
Duff, Wendy; Yakel, Elizabeth; Tibbo, Helen; Cherry, Joan; McKay, Aprille; Krause, Magia; Sheffield, Rebecka (2010). The development, testing, and evaluation of the archival metrics toolkits. American Archivist, vol. 73, issue 2, pp. 569-599. doi:10.17723/aarc.73.2.00101k28200838k4 (odczyt: 28.06.2017).
9.
Głowacka, Ewa (2006). Norma ISO 11620 w praktyce badań jakości biblioteki. W: Anna Wiśniewska, Artur Paszko red. Dobra biblioteka publiczna – czyli jaka? Studia i materiały. Kraków: Wojewódzka Biblioteka Publiczna, s. 49-56.
10.
Głowacka, Ewa (2015). Kultura oceny w bibliotekach: obszary, modele i metody badań jakości zasobów oraz usług biblioteczno-informacyjnych. Toruń: Wydawnictwo Naukowe UMK.
11.
Gołembiowski, Maciej (1985). System informacji archiwalnej. Warszawa, Łodź: PWN.
12.
Griffin, Melanie; Lewis, Barbara; Greenberg, Mark I. (2012). Data-driven decision making: a holistic approach to assessment in special collections repositories. Special & Digital Collections Faculty and Staff Publications, paper 11, pp. 1-28. http://scholarcommons.usf.edu/tlsdc/11(odczyt: 28.06.2017).
13.
Jabłońska, Marlena (2016). Nowe wyzwania archiwów: komunikacja społeczna i public relations. Toruń: Wydawnictwo Naukowe UMK.
14.
Kędzierska, Edyta; Zawałkiewicz, Aldona (2014). Jak przeprowadzić badania satysfakcji użytkowników biblioteki?: poradnik dla bibliotekarzy. Warszawa: SBP. http://pliki.sbp.pl/afb/jak-przeprowadzic-badania-satysfakcji.pdf (odczyt: 28.06.2017).
15.
LibQUAL+. http://www.libqual.org/home (odczyt: 28.06.2017).
16.
Materska, Katarzyna (2007). Informacja w organizacjach społeczeństwa wiedzy. Warszawa: Wydawnictwo SBP.
17.
Materska, Katarzyna (2013). Konteksty zarządzania informacją – poszukiwania i interpretacje na przełomie wieków. W: Barbara Sosińska-Kalata, Ewa Chuchro red. Nauka o informacji w okresie zmian. Warszawa: Wydawnictwo SBP, s. 167-184.
18.
Pugh, Mary Jo. (1992). Providing reference services for archives and manuscripts. Chicago: Society of American Archivists.
19.
Sidor, Maria (2005). Jakość usług bibliotecznych: badanie metodą SERVQUAL. Wydawnictwo SBP.
20.
Wojciechowska, Maja (2006). Zarządzanie zmianami w bibliotece. Warszawa: Wydawnictwo SBP.
21.
Yakel, Elizabeth; Duff, Wendy; Tibbo, Helen; Kriesberg, Adam; Cushing, Amber (2012). The economic impact of government archives: surveys of users of government archives in Canada and the United States. American Archivist, vol. 75, issue 2, pp. 297–325. doi:10.17723/aarc.75.2.002033qg27366gvt (odczyt: 28.06.2017).
Dorota Rak
Instytut Informacji Naukowej i Bibliotekoznawstwa,
Wydział Zarządzania i Komunikacji Społecznej, Uniwersytet Jagielloński
Wpływ kompetencji informacyjno-cyfrowych a proces indywidualnego zarządzania informacją wśród seniorów
The impact of information and computer literacy
on senior citizens’ personal information management
Słowa kluczowe: indywidualne zarządzanie informacją, kompetencje informacyjne, kompetencje
informatyczne, seniorzy.
Keywords: computer literacy, information literacy, personal information management, seniors.
Abstrakt
Celem artykułu jest odpowiedź na pytanie o proces indywidualnego zarządzania informacją wśród seniorów. Zagadnienie to zostało przeanalizowane w dwóch obszarach: kontekście cyfrowym i tradycyjnym. Wartość dodaną stanowi odpowiedź na pytanie o zachowania informacyjne seniorów i towarzyszące im emocje. Do analizy problemu zostały wykorzystane wyniki badań ankietowych, w których uczestniczyli słuchacze Uniwersytetu Trzeciego Wieku UJ w Krakowie uczęszczający na warsztaty komputerowe. Wyniki analizy odniesiono do innych badań z zakresu indywidualnego zarządzania informacją, które w 2012 roku przeprowadziła Marzena Świgoń. Rezultaty badań pozwoliły na wykazanie zależności pomiędzy kompetencjami informacyjnymi i informatycznymi a procesem indywidualnego zarządzania informacją wśród seniorów.
Abstract
This article is focused on a process of personal information management (PIM) going around a group of senior citizens. It was analysed in two areas: digital and traditional contexts. The added value is an answer concerning information behaviours and emotions during processes related with information. The author used a special, dedicated questionnaire which was filled in by senior citizens from Jagiellonian University’s classes for the elderly. They take part in computer workshops. The results were referred to other surveys which had been made a few years earlier by Marzena Świgoń. The methodology was helpful in discovering the impact of information and computer literacy on senior citizens’ personal information management.
Wprowadzenie
Problem indywidualnego zarządzania informacją jest zagadnieniem, które w coraz większym stopniu cieszy się zainteresowaniem naukowców. Różnorodność przyjmowanych perspektyw jest związana z potencjałem badawczym, jaki w nim tkwi. Integruje on różne podejścia, które za centralny element analizowanego fragmentu rzeczywistości obierają nie tylko użytkowników informacji, ale także ją samą.
Rosnący potencjał naukowy omawianego zjawiska sprawia, że dotychczasowy stan badań nad indywidualnym zarządzaniem informacją ciągle się powiększa. Termin ten w obecnym brzmieniu został po raz pierwszy użyty w latach 80. XX w. na fali ogólnej fascynacji nad potencjałem komputerów osobistych, które wykorzystywano do przetwarzania i zarządzania osobistymi informacjami w postaci baz danych, plików czy chociażby interfejsu samego w sobie (Lansdale, 1988, s. 61-62). Z czasem punkt ciężkości przeniósł się na relacje pomiędzy komputerami a ich użytkownikami, którzy wyróżniali się określonymi preferencjami poznawczymi w różnorakich procesach i systemach związanych z informacją (Barreau, Nardi, 1995; Case, 1991; Jones, 1986).
Odwoływanie się w niniejszym artykule do relacyjności użytkowników i narzędzi w zakresie indywidualnego zarządzania informacją jest zatem w pełni uzasadnione. Badaniami ankietowymi została objęta specyficzna grupa użytkowników – seniorzy, a zatem osoby posiadające określone potrzeby i kompetencje informacyjne. Zastosowanie konkretnej metodologii pozwoliło odpowiedzieć na pytanie o to, w jaki sposób indywidualne zarządzanie informacją realizuje się wśród osób starszych, a dokładniej – w grupie konkretnych seniorów zrzeszonych w Jagiellońskim Uniwersytecie Trzeciego Wieku.
Indywidualne zarządzanie informacją jako pojęcie wieloaspektowe
Termin „indywidualne zarządzanie informacją” stanowi jeden z synonimów międzyjęzykowych angielskiego pojęcia personal information management (w skrócie: PIM), który jest bardzo pojemny pod względem treści. Jacek Tomaszczyk przetłumaczył go jako zarządzanie informacją osobistą (Tomaszczyk, 2009). Trzy lata później Katarzyna Materska zinterpretowała go jako zarządzanie informacją indywidualną rozumianą z jednej strony jako informację należącą do kogoś, z drugiej – informację o kimś (Materska, 2012, s. 66). Z kolei Marzena Świgoń zwróciła uwagę na aspekt indywidualnego zarządzania informacją (Świgoń 2012).
Ta swego rodzaju różnorodność znaczeniowa wskazuje na duży potencjał treściowy, jaki kryje się w PIM. Niezależnie jednak od przyjętego nazewnictwa indywidualne zarządzanie informacją można zdefiniować jako „teorię i praktykę tego, jak pojedynczy człowiek zarządza na własny użytek informacją będącą w jego dyspozycji” (Cisek, 2014, s. 1). Jest to także każda aktywność, w której jednostka przechowuje informację w celu jej późniejszego wykorzystania (Bergman i in., 2008, s. 2). Ponadto PIM stanowi najważniejszy składnik indywidualnego procesu nauczania, w którym jednostka nabywa takie umiejętności, które pozwalają jej nie tylko gromadzić informacje, ale także je przechowywać, zarówno w kontekście wewnętrznym (odczucia i myśli podczas zetknięcia z informacją), jak i czasowym (stan, w jakim znajduje się jednostka w momencie ponownego kontaktu z informacją) (Bergman, Beyth-Marom, Nachmias, 2003, s. 872).
Istnieje kilka głównych celów, jakie przyświecają indywidualnemu zarządzaniu informacją. Wśród nich wymienia się przeważnie następujące: reaccess (ponowny dostęp do informacji) oraz remind (pamięć o zadaniach do wykonania oraz uwaga skupiona na informacjach istotnych z punktu widzenia tych projektów) (Cisek, 2014, s. 1); finding i re-finding (tzw. pierwsze i kolejne odszukanie informacji); keeping („podtrzymywanie kontaktu” z informacją poprzez jej przechowywanie i selekcję), a także organizowanie i interpretowanie informacji (Diekema, Olsen, 2014, s. 2262). Jednocześnie podkreśla się ścisły związek PIM z kompetencjami informacyjnymi, które wywierają duży wpływ na zarządzanie informacją i wiedzą (Świgoń 2012, s. 18), a także z kompetencjami informatycznymi.
Nie da się analizować PIM w oderwaniu od computer literacy. Wraz z rozwojem technologii informacyjnych, mamy do czynienia z łączeniem tradycyjnych i nowoczesnych rozwiązań w ramach indywidualnego zarządzania informacją (Jones, Thomas, 1997, s. 158). Wśród tych ostatnich duże znaczenie mają na przykład foldery, które stanowią „wizualną metaforę lokalizacji danych”, i niehierarchiczne tagi (Bergman i in., 2013, s. 1996).
Nabywanie kompetencji informacyjnych i informatycznych przez
seniorów
Jak wynika z powyższych rozważań, powiązania pomiędzy indywidualnym zarządzaniem informacją a kompetencjami informacyjnymi i informatycznymi są silne. Dotyczy to różnych grup społecznych i wiekowych, w tym także seniorów. W ich kontekście kompetencje informacyjne (information literacy) mogą być definiowane jako wiedza na temat określonych procesów związanych np. z wyszukiwaniem, oceną i wykorzystaniem informacji (Derfert-Wolf, 2005). Co więcej, ich celem powinno być zaspokojenie potrzeb o charakterze kognitywnym (Lau, 2011, s. 16). Swego rodzaju dopełnieniem kompetencji informacyjnych są kompetencje informatyczne (computer literacy), utożsamiane z umiejętnościami służącymi zrozumieniu wszelkich technologii ICT w zakresie obsługi sprzętu i oprogramowania, systemów, sieci lokalnych, Internetu itd. oraz medialne (media literacy) (Lau, 2011, s. 15).
Z punktu widzenia indywidualnego zarządzania informacją wśród seniorów i w kontekście umiejętności w zakresie kompetencji informacyjnych i informatycznych, duże znaczenie mają konkretne umiejętności. Jeśli chodzi o pierwszy ich typ, trzeba wymienić między innymi: rozpoznawanie potrzeb informacyjnych i podejmowanie działań ukierunkowanych na ich realizację poprzez dobór odpowiednich narzędzi i technik, świadomość istnienia czynnika afektywnego w zachowaniach informacyjnych. Z kolei w zakresie kompetencji informatycznych i medialnych na szczególną uwagę zasługują: „archiwizowanie treści z Internetu na własnym sprzęcie, drukowanie, korzystanie z edytora tekstu, korzystanie z programów służących do wyświetlania zdjęć i filmów, rozpoznawanie, czy sprzęt jest połączony z Internetem, umiejętność instalowania programów antywirusowych, umiejętność korzystania z zewnętrznych magazynów pamięci (podłączanie ich do komputera, operacje przenoszenia zawartości itp.), (…) korzystanie z nowych mediów, np. radia internetowego, odróżnianie wyszukiwarki od przeglądarki, otwartość na poszukiwanie informacji w internecie, swobodne poruszanie się po stronach internetowych, świadomość zagrożeń wynikających z korzystania z Internetu, umiejętność znalezienia powiązań pomiędzy mediami tradycyjnymi a ich cyfrowymi odpowiednikami, wykorzystywanie Internetu do obcowania z kulturą, polityką itp.” (Rak, Petrowicz, Pokojska, 2016, s. 134).
Nabywanie wymienionych wyżej umiejętności jest możliwe w ramach koncepcji lifelong learning i edukacji formalnej, realizowanej na uniwersytetach trzeciego wieku (Richert-Kaźmierska, Forkiewicz, 2013). Ta forma kształcenia zapewnia możliwość udziału w zajęciach teoretycznych i praktycznych z różnych obszarów tematycznych, w tym także komputerowo-internetowych. Poza oczywistym celem zdobywania wiedzy przez seniorów w danej dziedzinie, istotna jest także ich aktywizacja.
Proces indywidualnego zarządzania informacją a osoby starsze – wyniki badań
W badaniach ankietowych, przeprowadzonych w dniach od 1 marca do 10 kwietnia 2017 roku, wzięło udział 25 seniorów – słuchaczy Jagiellońskiego Uniwersytetu Trzeciego Wieku w Krakowie i jednocześnie uczestników warsztatów komputerowych „Internet dla seniora”. Badania miały charakter pilotażowy, ze względu na ograniczoną grupę ankietowanych, otrzymanych wyników nie należy rozciągać na całą populację osób starszych.
Badania na JUTW nie były jedynymi, jakie do tej pory przeprowadzono w zakresie PIM. Na przełomie 2010/2011 r. dwuetapowe badania dotyczące indywidualnego zarządzania informacją przeprowadziła Marzena Świgoń z Uniwersytetu Warmińsko-Mazurskiego w Olsztynie. Zostały nimi objęte osoby studiujące na kierunkach informatologiczno-bibliologicznych. Jak stwierdziła Świgoń, „nadrzędnym celem badań było poznanie i scharakteryzowanie istoty i znaczenia zarządzania wiedzą i informacją w ich opinii oraz określenie zachowań, umiejętności i odczuć studentów związanych z poszczególnymi etapami procesu zarządzania wiedzą i informacją” (Świgoń, 2012, s. 273).
W pierwszym etapie badań ich autorka analizowała swobodne wypowiedzi studentów na temat zarządzania wiedzą i informacją. Z kolei drugi etap badań miał charakter ankietowy – pytania w kwestionariuszu obejmowały takie zagadnienia, jak: pozyskiwanie i wyszukiwanie informacji, ich organizacja, przechowywanie, ochrona, selekcja, ocena, dzielenie się nimi, a także tworzenie, analiza i prezentowanie (Świgoń, 2012, s. 274). Wzięło w nich udział 510 studentów na kierunku informacja naukowa i bibliotekoznawstwo z 9 uniwersytetów w Polsce, w tym także Uniwersytetu Jagiellońskiego. Z punktu widzenia niniejszego artykułu większe znaczenie mają badania ankietowe, nie tylko ze względu na rodzaj metody badawczej, ale także zawartość treściową pytań.
Jeśli chodzi o seniorów z JUTW, to kwestionariusz wypełniło 19 kobiet i 6 mężczyzn. Największą grupę stanowiły osoby w przedziale wiekowym 66-70 lat – 11.
O 4 respondentów mniej (7) zadeklarowało wiek pomiędzy 61-65 lat. Grupę w wieku 71-75 lat reprezentowało z kolei 6 osób. W grupie wiekowej 56-60 lat znalazł się tylko jeden słuchacz. Wśród respondentów zdecydowanie dominowały osoby z wykształceniem wyższym, które stanowiły aż 80% ankietowanych. Wykształcenie średnie zadeklarowało zaledwie 5 osób.
Właściwa część ankiety składała się z 14 pytań i dotyczyła takich aspektów, jak:
−
rozumienie terminu indywidualne zarządzanie informacją,
−
pozyskiwanie informacji i emocji z tym związanych,
−
przechowywanie informacji,
−
ich selekcja
−
tworzenie oraz
−
udostępnianie.
Część pytań miała charakter otwarty, zaś część zawierała już propozycje odpowiedzi.
Rozumienie terminu „indywidualne zarządzanie informacją”
W literaturze przywołanej powyżej PIM jest definiowany na wiele sposobów.
Pytanie otwierające właściwą część ankiety miało na celu przybliżyć, jak indywidualne zarządzanie informacją jest postrzegane przez nieprofesjonalistów. Udzielone odpowiedzi układają się niejako w dwa zakresy tematyczne: różnorodne procesy informacyjne i okołoinformacyjne oraz kompetencje cyfrowe.
Jeśli chodzi o pierwszy z nich, to składają się na niego między innymi takie elementy, jak pozyskiwanie i gromadzenie danych, bezpieczeństwo informacji, przetwarzanie danych, zaspokajanie potrzeb informacyjnych i przekazywanie informacji. Aspekt drugi jest reprezentowany przez takie zagadnienia, jak korzystanie z Internetu i konkretnych źródeł elektronicznych, pozyskiwanie danych w sieci i ich bezpieczeństwo.
Analizując wyniki ankiety, można zauważyć, że pomimo, iż spora grupa respondentów (28%) nie potrafiła podać skojarzeń związanych z zarządzaniem informacją, to pozostałe odpowiedzi nawiązują do różnych aspektów. Dla 16% ankietowanych PIM jest równoznaczne z samodzielnym zarządzaniem wytworzonymi i otrzymanymi informacjami. Z kolei 12% ankietowanych wskazało, że indywidualne zarządzanie informacją kojarzy im się z umiejętnością gromadzenia i pozyskiwania danych oraz korzystania z Internetu. Dwóch respondentów odpowiedziało, że polega ono na dbaniu o bezpieczeństwo wytworzonych informacji; tyle samo ankietowanych powiązało PIM z pozyskiwaniem danych z Internetu oraz radzeniem sobie z nimi. Pojedyncze osoby wskazały ponadto na takie aspekty, jak: organizacja pracy grupowej, sprawne posługiwanie się mediami elektronicznymi, możliwość pozyskania nowej wiedzy, korzystanie z dostępnych źródeł informacji w zakresie wiadomości i bankowości, zdobywanie informacji dla własnych potrzeb oraz przekazywanie informacji innym.
Z odpowiedziami seniorów zbieżne są wyniki pierwszej części ankiety przeprowadzonej wśród studentów. W zakresie definiowania PIM objęły one takie elementy, jak:
−
gromadzenie danych,
−
swobodne poruszanie się po źródłach informacji,
−
pozyskiwanie i przetwarzanie informacji,
−
docieranie do informacji,
−
powiązania z zarządzaniem wiedzą,
−
przepływ informacji, a także
−
ich selekcja (Świgoń, 2012, s. 281-283).
Pozyskiwanie informacji i emocje z tym związane
Kolejnym problemem w zakresie indywidualnego zarządzania informacją, do którego odnosiła się ankieta, było wyszukiwanie i pozyskiwanie informacji przez seniorów. Tego zagadnienia dotyczyło 5 pytań. W pierwszym z nich respondenci wskazywali na sposób zdobywania informacji. 23 ankietowanych (92%) odpowiedziało, że korzysta z Internetu i źródeł elektronicznych (w odróżnieniu od studentów, którzy zadeklarowali większą różnorodność w zakresie znajomości źródeł – 91%). 13 osób (52%) stwierdziło, że do tego celu wykorzystuje źródła drukowane. Ponadto 6 seniorów (24%) przyznało, że informacje pozyskuje od źródeł osobowych. Wśród ankietowanych nie pojawiły się osoby, które przyznałyby, że nie czują potrzeby, aby zdobywać informacje.
Drugie pytanie odnosiło się do emocji najczęściej towarzyszących respondentom podczas wyszukiwania informacji. Radość odczuwa 24% ankietowanych (10 osób). Na stres wskazało 16% (4 osoby). Tyle samo seniorów zmaga się z bezradnością. O 6% ankietowanych więcej (7 osób) twierdzi, że nie odczuwa żadnych emocji.
Kolejne pytania dotyczyły narzędzi do wyszukiwania informacji w Internecie. Wszyscy respondenci przyznali, że korzystają z wyszukiwarki, a 96% (24 seniorów) z nich używa Google. Tylko 4% (1 osoba) wskazała na Bing. 36% (9) ankietowanych przyznało, że wie, czym jest ukryty Internet, ale tylko nieco ponad 33% z nich (3 osoby) z niego korzysta. 64% (16 seniorów) w ogóle nie posiada wiedzy na temat ukrytego Internetu. W przypadku studentów 47% z nich zadeklarowało, że wie, czym on jest i umie z niego korzystać. Jak przyznała sama autorka, zastanawiający jest tak mały odsetek pozytywnych odpowiedzi wśród „specjalistów” informacji (Świgoń 2012, s. 290).
Przechowywanie informacji
W ankiecie pytano respondentów również o przechowywanie informacji. Do tego aspektu odnosiły się cztery pytania. Pierwsze z nich dotyczyło sposobów przechowywania informacji w domu. Aż 40% ankietowanych (10 osób) odpowiedziało, że do tego celu wykorzystuje posegregowane teczki. 12% seniorów (3 osoby) wskazało na notatnik, tyle samo na dysk zewnętrzny, pendrive i płyty CD. 8% (2) ankietowanych zdecydowało się na foldery i pliki w komputerze, tyle samo na twardy dysk lub po prostu „miejsce niedostępne dla obcych”. Pojedyncze osoby (4%) wskazały, że informacje przechowują „w głowie” lub Internecie. Jedna osoba nie potrafiła odpowiedzieć na powyższe pytanie.
Jeśli chodzi o przechowywanie ważnych informacji na komputerze, to 56% (14) respondentów używa do tego celu plików i folderów. 24% (6) osób wskazało po prostu na dysk twardy, zaś 12% (3) na pendrivie. 8% (2 seniorów) zadeklarowało, że nie przechowuje ważnych informacji na komputerze. 4% respondentów (pojedyncze osoby) wskazało pocztę internetową lub zakładki przeglądarki. Tyle samo osób nie umiało odpowiedzieć na powyższe pytanie.
Kolejne pytania dotyczyły sporządzania kopii danych elektronicznych. 60% (15) seniorów biorących udział w ankiecie odpowiedziało, że robi takie kopie (wśród studentów 44%). Wszyscy ankietowani z JUTW wykorzystują do tego celu pendrivy i pocztę elektroniczną. Ponadto ponad 53% (8) ankietowanych w tej grupie wykorzystuje dysk zewnętrzny; 40% (6) respondentów korzysta z kart pamięci, a ponad 13% (2) przechowuje kopie danych na dyskach wirtualnych. Nieco ponad 6% (1) respondentów nie umiało wskazać urządzenia i programu, za pomocą którego przechowują kopie danych.
Selekcja, tworzenie i udostępnianie informacji
Jeśli chodzi o selekcję informacji, to do tego zagadnienia odnosiło się jedno pytanie, w którym respondenci mieli ocenić swoje umiejętności w tym zakresie. 60% (15) z nich odpowiedziało, że nie czuje się pewnie w doborze wartościowych informacji (wśród studentów było to 23,5%). 32% (8) stwierdziło, że czasem udaje im się dokonać właściwej selekcji, a czasem nie. Najmniej respondentów, bo 8% (2), odpowiedziało, że nie ma z tym najmniejszych problemów (wśród studentów było to 54,5% respondentów). Porównując wszystkie powyższe wyniki z rezultatami ankiety Świgoń, można zauważyć, że seniorzy gorzej radzą sobie w omawianym aspekcie.
W ankiecie pytano także o sposoby tworzenia informacji. 64% (16) ankietowanych zadeklarowało, że korzysta z edytorów tekstu (np. Word), tyle samo pisze listy elektroniczne i sms. 40% (10) respondentów robi notatki w podręcznym notesie. Z kolei 24% (6) seniorów biorących udział w ankiecie przyznało, że korzysta z programów do prezentacji (np. PowerPoint). Taki sam odsetek badanych robi notatki w telefonie. 20% (5) ankietowanych przyznało, że pisze listy tradycyjne.
Ostatnie dwa pytania dotyczyły udostępniania informacji. 60% (15) respondentów zadeklarowało, że nie dzieli się swoimi informacjami i dokumentami ze znajomymi (wśród studentów było to zaledwie 15%). Pozostałe 40% (10) nie ma z tym problemu. Jeśli chodzi o narzędzia wykorzystywane do tego celu, to aż 70% (7) ankietowanych korzysta z poczty elektronicznej. 30% (3) zadeklarowało stosowanie dedykowanych narzędzi, jak np. WeTransfer. 20% (2) badanych udostępnia swoje dokumenty i informacje za pomocą serwisów społecznościowych (np. Facebook). Tylko 10% (1) respondentów do tego celu wykorzystuje fizyczne nośniki (w tym przypadku pendrivy).
Zarysowanie całego powyższego tła badawczego jest o tyle ważne w kontekście niniejszego opracowania, że pozwala podjąć próbę odniesienia i porównania wyników ankiety przeprowadzonej wśród seniorów. Oczywiście w tym miejscu może pojawić się zarzut, że analiza porównawcza nie powinna mieć miejsca chociażby ze względu na liczebność grupy ankietowanych (25 seniorów vs 34 studentów w I części i 510 w II) oraz jej charakter (grupa dobrana celowo vs grupy reprezentatywne). Trudno jednak rozciągać wyniki obu przeprowadzonych badań na całą populację seniorów czy ogół studentów. To, co łączy badane grupy, można określić jako proces nabywania przez nich określonych i wyspecjalizowanych kompetencji, które stanowią punkt wyjścia do uchwycenia podobieństw i różnic w postrzeganiu poszczególnych elementów składowych PIM. Poniższa tabela (tab. 1) prezentuje rozkład odpowiedzi w tych obszarach, które wystąpiły zarówno w badaniach Świgoń, jak i autorki niniejszego artykułu.
Tabela 1. Porównanie odpowiedzi w obszarach PIM ze względu na grupę respondentów
Obszar PIM
Zagadnienie szczegółowe w obszarze
PIM
% respondentów
SENIORZY
STUDENCI
rozumienie terminu
zarządzanie wytworzonymi i otrzymanymi informacjami
16%
3%
gromadzenie i pozyskiwanie danych
12%
29%
korzystanie z Internetu i pozyskiwanie danych z sieci
13,5%
3%
zarządzanie informacją jest powiązane z wiedzą
0,5%
50%
pozyskiwanie informacji i emocje z tym związane
znajomość różnych źródeł informacji i korzystanie z nich
92%
83%
znajomość głębokiego Internetu
36%
47%
przechowywanie informacji
tradycyjne formy przechowywania informacji
52%
89%
elektroniczne formy przechowywania informacji
12%
6%
sporządzanie kopii materiałów elektronicznych
60%
44%
selekcja, tworzenie i udostępnianie informacji
umiejętność bezproblemowego doboru wartościowych informacji
8%
76,5%
tworzenie informacji za pomocą źródeł elektronicznych
64%
90%
dzielenie się informacjami
40%
85%
Źródło: opracowanie własne
Dane zaprezentowane w powyższej tabeli implikują kilka wniosków. Pierwsze różnice są dostrzegalne już w sposobie interpretowania PIM. O ile studenci wskazują na bardzo wyraźny związek pomiędzy wiedzą a zarządzaniem informacją, o tyle dla seniorów pozostaje on w zasadzie nieuchwytny. Dla osób starszych większe znaczenie mają działania związane z pozyskiwaniem i tworzeniem danych, którymi mogą później zarządzać. Co ważniejsze, w odróżnieniu od studentów, istotne jest dla nich nie zdobywanie informacji jako takie, ale to, gdzie do niego dochodzi – są bowiem silnie przekonani o tym, że to właśnie zasoby Internetowe są najlepsze.
Taki sposób myślenia wynika przede wszystkim z faktu wychodzenia ze strefy cyfrowego wyobcowania, które z kolei przejawia się w nabywaniu kompetencji cyfrowych i trenowaniu posiadanych umiejętności informacyjnych w środowisku sieciowym. Poznawanie różnych zasobów i powiększanie liczby źródeł, które seniorzy mogą wykorzystać w razie potrzeby (stosunkowo duży odsetek zadeklarował przecież znajomość głębokiego Internetu), nie są niczym złym, jednak brak zdolności do selekcji informacji i jej jakościowej oceny jest wśród osób starszych prawdziwym problemem.
Niemały wpływ ma na to stres przed korzystaniem z nowoczesnych technologii i ich mechanizmami. Ta swego rodzaju troska o własne bezpieczeństwo sprawia, że w odróżnieniu od studentów seniorzy rzadziej tworzą informacje za pomocą źródeł elektronicznych i w znacznie mniejszym stopniu się nimi dzielą. Z drugiej strony, obawy przed zagrożeniami wynikającymi np. z niewłaściwego korzystania z Internetu lub sprzętu stanowią czynnik mobilizujący, chociażby w zakresie sporządzania kopii materiałów elektronicznych. Zjawisko to jest znacznie powszechniejsze wśród seniorów.
Aspekt ten, obok sposobu interpretowania PIM, procesów pozyskiwania, selekcji, tworzenia i udostępniania informacji, pozwala dostrzec czynniki różnicujące obie grupy respondentów. Stanowi on swego rodzaju wyjątek w obszarze przechowywania informacji. Można bowiem zauważyć, że zarówno seniorzy, jak i studenci preferują tradycyjne formy przechowywania informacji. Mimo wszystko ani jedni, ani drudzy nie rezygnują z rozwiązań elektronicznych. Dość zaskakujący jest fakt, że to jednak osoby starsze częściej wykorzystują cyfrowe formy przechowywania danych. Co więcej, stosunek pomiędzy seniorami deklarującymi korzystanie z tradycyjnych rozwiązań (np. koperty, segregatory i teczki) a wybierającymi sposoby cyfrowe jest zdecydowanie mniejszy niż w przypadku studentów. Taki stan rzeczy dowodzi, że starsza grupa respondentów stosuje zarówno formy tradycyjne, jak i elektroniczne.
Podsumowanie
Jak wynika z zaprezentowanych wyników badań przeprowadzonych wśród seniorów, indywidualne zarządzanie informacją jest ściśle powiązane z kompetencjami informacyjnymi i informatycznymi, które nabywają podczas warsztatów internetowych. Świadczy o tym częste odwoływanie się do rozwiązań elektronicznych oraz fakt, że posiadają one pewien potencjał, którego uczestnicy warsztatów nie boją się odkrywać.
Procent odpowiedzi w poszczególnych grupach respondentów, widoczny w tabeli nr 1 świadczy o dużej świadomości seniorów w odniesieniu nie tylko do procesów związanych z PIM, ale także kwestii zabezpieczania informacji w celu ich późniejszego wykorzystania, czy też znajomości źródeł różnego typu. Informacja ma zatem dla nich dużą wartość, co powinno stanowić punkt wyjścia do kolejnych, bardziej zaawansowanych badań.
Bibliografia
1.
Barreau, Deborah; Nardi, Bonnie A. (1995). Finding and reminding: file organization from the desktop. SIGCHI Bull, vol. 27, issue 3, pp. 39–43.
2.
Bergman, Ofer; Beyth-Marom, Ruth; Nachmias, Rafi (2003). The user-subjective approach to personal information management systems. Journal of the American Society for Information Science, vol. 5, issue 9, pp. 872-878.
3.
Bergman, Ofer; Beyth-Marom, Ruth; Nachmias, Rafi; Gradovitch, Noa; Whittaker, Steve (2008). Improved search engines and navigation preference in personal information management. ACM Transaction on Information Systems, vol. 26, issue 4, article 20, pp. 1-24.
4.
Bergman, Ofer; Gradovich, Noa; Bar-Ilan, Judit; Beyth-Marom, Ruth (2013). Folder versus tag preference in personal information management. Journal of the American Society for Information Science, vol. 64, issue 10, pp. 1995-2012.
5.
Case, Donald O. (1991). Conceptual organization and retrieval of text by historians: the role of memory and metaphor. Journal of the American Society for Information Science, vol. 42, issue 9, pp. 657-668.
6.
Cisek, Sabina (2014). PIM Personal Information Management. https://www.academia.edu/9779934/Indywidualne_zarz%C4%85dzanie_informacj%C4%85 (odczyt: 29.03.2017).
7.
Derfert-Wolf, Lidia (2005). Information literacy – koncepcje i nauczanie umiejętności informacyjnych. Biuletyn EBIB, nr 1 (62). http://ebib.oss.wroc.pl/2005/62/derfert.php (odczyt: 19.04.2017).
8.
Diekema, Anne R.; Olsen, M. Whitney (2014). Teacher personal information management (PIM): practices: finding, keeping, and re-finding information. Journal of the Association for Information Science and Technology, vol. 65, issue 11, pp. 2261-2277.
9.
Jones, Stephen; Thomas, Peter (1997). Empirical assessment of individuals’ ‘personal information management systems’. Behaviour & Information Technology, vol. 16, issue 3, pp. 158-160.
10.
Jones, Wiliam (1986). The memory extender personal filing system. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York, pp. 298–305.
11.
Lansdale, Mark W. (1988). The psychology of personal information management. Applied Ergonomics, vol. 19, issue 1, pp. 55–66.
12.
Lau, Jesús (2011). Kompetencje informacyjne w procesie uczenia się przez całe życie. Wytyczne. https://www.researchgate.net/publication/268286920_Kompetencje_informacyjne- _w_procesie_uczenia_sie_przez_cale_zycie_Wytyczne (odczyt: 19.04.2017).
13.
Materska, Katarzyna (2012). Wymiary zarządzania informacją indywidualną.
W: Barbara Sosińska-Kalata, Ewa Chuchro red. Społeczeństwo i sieć informacyjna: problemy i technologie. Warszawa: Wydawnictwo Stowarzyszenia Bibliotekarzy Polskich, s. 65-79.
14.
Rak, Dorota; Petrowicz, Marcin; Pokojska, Weronika (2016). Potrzeby szkoleniowe i kompetencje seniorów w zakresie korzystania z internetu. W: Sabina Cisek red. Inspiracje i innowacje: zarządzanie informacją w perspektywie bibliologii i informatologii. Kraków: Biblioteka Jagiellońska, s. 127-145.
15.
Richert-Kaźmierska, Anita; Forkiewicz, Marcin (2013). Kształcenie osób starszych w koncepcji aktywnego starzenia się. Studia Ekonomiczne, t. 131, s. 127-139.
16.
Świgoń, Marzena (2012). Zarządzanie wiedzą i informacją. Olsztyn: Wydawnictwo Uniwersytetu Warmińsko-Mazurskiego.
17.
Tomaszczyk, Jacek (2009). Angielsko-polski słownik informacji naukowej i bibliotekoznawstwa. Katowice: Studio NOA.
Wykres 3. Korelacja liczby cytowań i metryk pochodzących z aplikacji Menedeley
Źródło: oprac. własne.
Wykres 4. Korelacja liczby cytowań i liczby tweetów
Źródło: oprac. własne.
Tabela 2. Artykuły z czasopisma Scientometrics wraz z liczbą metryk (stan na dzień 31 marca 2017 r.)
Artykuły
poddane analizie
Data publikacji
Źródła metryk
Cytowania
Mendeley
Blogi
Twitter
CiteULike
Facebook
Strony WWW
Google+
How well developed are altmetrics? A cross-disciplinary analysis of the presence of „alternative metrics” in scientific publications
2014
59
270
2
39
6
0
0
0
Evaluating altmetrics
2014
40
241
2
1
2
0
0
0
Disciplinary differences in Twitter scholarly communication
2014
35
177
0
56
5
2
1
0
Using altmetrics for assessing research impact in the humanities
2014
34
198
0
5
4
0
0
0
Assessing non-standard article impact using F1000 labels
2013
26
80
0
1
2
0
0
0
Alternative metrics in scientometrics: A meta-analysis of research into three altmetrics
2015
24
199
0
4
1
0
0
0
Tracing scientist’s research trends realtimely
2013
13
106
1
22
0
1
0
0
The relationship between tweets, citations, and article views for PLOS ONE articles
2014
12
71
0
16
1
1
0
0
The open access advantage considering citation, article usage and social media attention
2015
10
112
12
561
5
13
1
6
Assessing the Mendeley readership of social sciences and humanities research
2013
8
47
0
0
0
0
0
0
Usage history of scientific literature: Nature metrics and metrics of Nature publications
2014
7
61
2
7
0
0
0
0
Coverage and adoption of altmetrics sources in the bibliometric community
2013
7
244
0
22
3
0
0
0
Exploring alternative metrics of scholarly performance in the social sciences and humanities in Taiwan
2015
6
37
0
0
0
0
0
0
Astrophysics publications on arXiv, Scopus and Mendeley: A case study
2014
5
101
0
0
0
0
0
0
How to normalize Twitter counts? A first attempt based on journals in the Twitter Index
2016
4
26
1
36
2
0
0
0
Research data explored: an extended analysis of citations and altmetrics
2016
3
67
3
39
1
1
0
1
CiteULike bookmarks are correlated to citations at journal and author levels in library and information science
2015
3
37
0
1
0
0
0
0
Letter to the editor: On the conceptualisation and theorisation of the impact caused by publications
2015
3
0
0
0
0
0
0
0
CiteScore: A cite for sore eyes, or a valuable, transparent metric?
2017
2
0
0
0
0
0
0
0
Policy documents as sources for measuring societal impact: how often is climate change research mentioned in policy-related documents?
2016
2
16
1
5
0
0
0
0
Altmetrics: an analysis of the state-of-the-art in measuring research impact on social media
2016
2
75
0
24
1
1
0
1
Interpreting correlations between citation counts and other indicators
2016
2
38
0
22
0
0
0
0
Mathematical properties of weighted impact factors based on measures of prestige of the citing journals
2015
2
27
0
1
0
0
0
0
The interest of the scientific community in expert opinions from journal peer review procedures
2015
2
43
0
11
0
0
0
0
The ecstasy and the agony of the altmetric score
2016
1
38
1
33
4
0
0
0
Metrics, flawed indicators, and the case of philosophy journals
2016
1
8
0
14
0
0
0
0
How many scientific papers are mentioned in policy-related documents? An empirical investigation using Web of Science and Altmetric data
2017
0
19
0
37
0
0
0
0
What we can learn from tweets linking to research papers
2017
0
0
1
22
0
0
0
0
Personalizing papers using Altmetrics: comparing paper
2017
0
6
0
5
0
0
0
0
Impact evaluation of open source software: an Altmetrics perspective
2017
0
5
0
1
0
0
0
0
Does evaluative scientometrics lose its main focus on scientific quality by the new orientation towards societal impact?
2017
0
13
0
13
0
0
0
0
Context of altmetrics data matters: an investigation of count type and user category
2017
0
6
0
18
0
0
0
0
Can alternative indicators overcome language biases in citation counts? A comparison of Spanish and UK research
2016
0
20
0
1
0
0
0
0
Revisiting an open access monograph experiment: measuring citations and tweets 5 years later
2016
0
11
0
69
0
0
0
1
Are citations from clinical trials evidence of higher impact research? An analysis of ClinicalTrials.gov
2016
0
3
0
3
0
0
0
0
Usage patterns of scholarly articles on Web of Science: a study on Web of Science usage count
2016
0
15
0
0
0
0
0
0
To be or not to be on Twitter, and its relationship with the tweeting and citation of research papers
2016
0
27
3
57
0
0
0
1
Tracking the digital footprints to scholarly articles from social media
2016
0
17
2
104
1
1
0
0
Vector-valued impact measures and generation of specific indexes for research assessment
2016
0
12
0
0
0
0
0
0
Measuring book impact based on the multi-granularity online review mining
2016
0
15
0
0
0
0
0
0
Łącznie
-
313
2488
31
1250
38
20
2
10
Źródło: oprac. własne.
Artykuły
poddane analizie
Data publikacji
Źródła metryk
Cytowania
Mendeley
Blogi
Twitter
CiteULike
Facebook
Strony WWW
Google+
P% x L = S