EBIB Nr 5/2007 (86), Współpraca zagraniczna bibliotek. Badania, teorie wizje Poprzedni artykuNastpny artyku  

 


Bożena Bednarek-Michalska
KWE SBP

Ocena jakości informacji elektronicznej. Pułapki sieci


Nowy wiek i masowa produkcja przekazów

Początek nowego wieku chyba mobilizuje masową wyobraźnię. Jak to się zdarza w okresach przełomowych, wszyscy dajemy się ponieść nowym nurtom, oczekujemy zmian i rewolucji. Niektórzy z nas głębiej analizują niezrozumiałe zjawiska, które się pojawiają, starają się nazwać nowe, odróżniając je czymś istotnym od poprzednich. Nie przypadkiem wraz z tymi zjawiskami wchodzi do naszego języka nowa terminologia, która stara się je wyjaśniać za pomocą znanych nam znaków. Dynamika zmian jest jednak tak wielka, że zanim zrozumiemy jedno pojęcie, w jego miejsce pojawia się kolejne wypierające, zastępujące lub rozszerzające znaczenie poprzedniego. Wiele pojęć ulega redefinicji, co wzbudza nasz zrozumiały niepokój. Lubimy przecież żyć w świecie zrozumiałych symboli i metafor, a nie –izmów, które dopiero musimy rozpoznać. Jedno wydaje się wszak zrozumiałe, że muszą następować zmiany, a te, które teraz się wokół nas pojawiają, zawdzięczamy sieci internet i technologiom komunikacyjnym.

Wyprowadzenie sieci ze strefy zmilitaryzowanej do publicznej spowodowało faktyczną rewolucję, która dokonuje się już ponad 17 lat, a jej efekty są dostrzegane nawet przez niewprawnych i mało wyrafinowanych analityków. Rodzi się nowa kultura, powstają inne relacje społeczne i gospodarcze, buduje się cyberprzestrzeń, w której wszystko jest mobilne i zwielokrotnione. Dzięki technologiom ludzie mają takie możliwości komunikacyjne, jak nigdy dotąd, co powoduje szybki i szeroki przepływ wszelkiego typu przekazów: tekstowych, ikonograficznych, audio-wideo, danych wyrażanych w różnych miarach, a także szumów informacyjnych (np. krótkie, nic nieznaczące notki z forów). Wzbudza to dyskusje, wiąże grupy zainteresowań i interesów, często wytwarza nową jakość - w tym także nową wiedzę, nowe usługi i produkty. W tym sensie Internet spełnia ważną rolę społeczną i kulturotwórczą, a zarazem tworzy przestrzeń dla nowych elit - netokracji - uprzywilejowanych grup, które potrafią się w nowym świecie znaleźć i czerpać zyski z niematerialnych, kulturowych produkcji. Po drugiej stronie są wykluczeni - ci, którzy albo nie mają dostępu do sieci, albo jedynie bezmyślnie konsumują to, co inni im podsuną. Masowość, wielość, ilość, szybkość, jakość - to pojęcia opisujące Internet - pojęcia bardzo niepokojące - wprowadzające zamęt do świata, w którym dotychczas realizowało się potrzeby wolniej, spokojniej, mniej globalnie.

Możliwości techniczne i łatwa ich dostępność sprawiają wrażenie, że wszystko jest banalnie łatwe i proste. Panuje przekonanie, że stworzenie serwisu informacyjnego czy własnej strony w Internecie nie wymaga wielkiej filozofii. Wystarczy znać podstawy HTML lub nauczyć się korzystać z platform wspomagających tworzenie stron WWW (joomla, wiki). Czasem, by wyrazić własne myśli, promować swoją twórczość, niczego nie trzeba umieć, wystarczy zapisać się na fora dyskusyjne, stworzyć bloga, wejść do serwisu Science Wiki, wysyłać swoje produkcje filmowe do YouTube, wkleić prezentację do SlideShare i stać się pełnoprawnym obywatelem świata informacji. Serwisów usługowych jest wiele i powstają nowe, wszystkie odpowiadają na już wyartykułowane potrzeby bądź je wyprzedzają. Relacje, jakie zachodzą między grupami interesów są różne: B2B (Business to Business), B2C (Business-to-consumer), B2E (Business-to-Employee), C2C (Consumer to Consumer). Wszystkie trzeba rozumieć i rozpoznawać, by móc z nich skorzystać.

W związku z tą masową produkcją przeszukiwanie Internetu jest coraz trudniejsze. Fachowcy od informacji elektronicznej radzą nam: zanim usiądziesz do szukania czegoś w Internecie trenuj oczy i palce, żeby móc zastosować wiele technik, które ci pomogą i trenuj intelekt, żeby mieć krytyczne podejście do tego, czego szukasz, bo będziesz musiał zadać sobie wiele pytań, zanim zaufasz znalezionej informacji i ją wykorzystasz. Szukaj z głową! Natura Internetu jest taka, że publikowanie staje się coraz prostsze i nikt nie kontroluje tego procesu, po drugiej stronie kabla zaś nie wiadomo, kto jest - Kot? Pies? Miki Mouse? Pimko? Dlatego do internetowych źródeł trzeba podchodzić z wielką ostrożnością i uwagą. W Internecie nie ma jedynie słusznego wydawcy, korektora czy cenzora, który za nas sprawdzi treści, naniesie uwagi, poprawi błędy, odkryje fałsz i przygotuje nam listę materiałów odpowiadających naszym potrzebom. Internet musi być wolny, daje nam nowe możliwości, swobodę komunikacji i przekazu, ale bądźmy sceptyczni wobec sieci i wybierajmy informacje mądrze.

Dlaczego trzeba mówić o jakości informacji elektronicznej?

Kategoria jakości kojarzy się dziś najczęściej z systemem zarządzania w przedsiębiorstwie (Total Quality Management), gdzie najważniejsze są zawsze potrzeby klienta, dla którego powstaje konkretny produkt. Informacja też jest produktem, dziś szczególnie cennym, ponieważ wszystko wskazuje na to, że nowy wiek będzie ją szczególnie preferował. Wiek XXI chce swój rozwój oprzeć na badaniach, nauce i nowych technologiach podnoszących nie tylko jakość życia ludzi, ale też jakość nauki, dydaktyki i kultury. Nie na darmo mówi się o kulturze wysokiej.

Także dzisiejsze mody i preferencje w świecie informacji mają swoje odniesienia do historii. Jakość informacji i spojrzenie na nią od strony jej użytkownika miały znaczenie także i kiedyś, weźmy chociażby pod uwagę 5 zasad S.R. Ranganathana (1931 Five Laws of Library Science), które co prawda opisywały dobrą pracę i działania biblioteki, ale parafrazując je dziś i odnosząc do informacji, można powiedzieć: zasób informacyjny jest żywym, rozwijającym się organizmem. Informacja jest po to, by z niej korzystać. Odpowiednia informacja powinna być dostarczona w odpowiednim czasie do odpowiedniego użytkownika. Zatem analizując informację elektroniczną płynącą w sieci, nie odkrywamy nieznanych lądów. Wpisujemy się w tradycję i historię.

Trudno jest mówić o jakości informacji, generalizując, czym jest w ogóle. Natomiast łatwiej jest mówić o jakości w odniesieniu do konkretnego przypadku, ponieważ jakość co innego znaczy dla różnych odbiorców, w różnym czasie. Znaczenie jakości informacji zależy od tego, jak ona jest pojmowana i czy jest niezbędna jej odbiorcy, czy klientowi. Nie zależy od niej samej. Jakość informacji może być przez odbiorców określana bardzo różnie; to, co dla jednego jest ważne, dla innego może być nieważne. Definiowanie tych potrzeb nieustannie się zmienia jak rzeczywistość, która nas otacza. Teoretycy zajmujący się tą dziedziną wiedzy starali się opisać obiektywne atrybuty (cechy, właściwości) informacji, przez pryzmat których my możemy stwierdzić, czy dana informacja stanowi dla nas wartość.

Jakość informacji ogólnie można określić przez kilka atrybutów, oto niektóre z nich[1]:

L.p. Nazwa atrybutu, cechy Opis cechy
1. Relewantność Informacja odpowiada na potrzeby i ma istotne znaczenie dla odbiorcy.
2. Dokładność Informacja jest adekwatna do poziomu wiedzy, jaki reprezentuje odbiorca; precyzyjnie i dokładnie oddaje, określa temat.
3. Aktualność Informacja nie jest zakurzona; cykl jej aktualizacji jest zgodny z zawartością treści; tempo zmian, wchodzenie kolejnych wersji naturalne; jest stosowna do czasu.
4. Kompletność Informacja zawiera optymalną liczbę danych, która wystarcza, by móc przetworzyć informację w konkretną wiedzę; poziom szczegółowości jest zależny także od potrzeb odbiorcy.
5. Spójność Poszczególne elementy, dane współgrają ze sobą; forma odpowiada treści; aktualizacja danych jest zgodna z celami, jakim służy ich gromadzenie (statystyka roczna).
6. Odpowiedniość formy Odpowiednia prezentacja informacji oraz opis do prezentacji umożliwiają poprawną interpretację, odczyt (tekstowy, graficzny).
7. Dostępność Informacja jest dostępna, kiedy jest potrzebna właściwym odbiorcom, najlepiej 24h.
8. Przystawalność Informacja jest zgodna z inną informacją; przystawalna do rzeczywistości; interpretowana we właściwym kontekście; funkcjonująca w znajomym systemie komunikacji; sama w sobie nic nie znaczy.
9. Wiarygodność Informacja potwierdza prawdziwość danych; zawiera elementy upewniające co do rzetelności przekazu.

Atrybuty, które określiliśmy wyżej, są pomocne nie tylko dla każdego użytkownika informacji, ale też mogą stać się punktem odniesienia dla firm (np. infobrokerskich), które opierają swój biznes na informacji. Kiedy w biznesie mówi się o zarabianiu na informacji, o budowaniu strategii firmy, to mówi się także o znajdowaniu nisz, które należy wypełnić, by wygrać na konkurencyjnym rynku. Położenie nacisku na któryś z atrybutów i reklamowanie swoich usług w odniesieniu do konkretnej cechy informacji może być dobrą strategią biznesową i pewnie tak jest wykorzystywane. Jeśli jedna firma mówi, że dostarcza informacji małym i średnim przedsiębiorstwom w zakresie gromadzenia, analizowania i przetwarzania danych o produktach konkurencji, to cechy kompletności i wiarygodności, dokładności i precyzji mogą być podkreślane w ofercie usługowej. Jeśli firma nastawia się na dostarczanie czasopism naukowych środowiskom akademickim, to formuła szerokiej dostępności, aktualności i relewantności może być argumentem przekonującym do oferty. Firma usługowa może zbudować markę, kładąc nacisk na ten szczególny aspekt jej działalności i reklamować się jako otwarta, dostępna 24h np. dla studentów.

Metody i kryteria oceny informacji elektronicznej

Rozszerzając dalej tę analizę jakościową, powinniśmy wskazać, jak od strony czysto praktycznej powinno się podejść do oceny jakości informacji. Wychodząc od głównych cech informacji, łatwo możemy wyznaczyć sobie kryteria oceny, które mają dla nas znaczenie. Zanim przejdziemy do kryteriów, warto pomyśleć o metodach. Metody oceny informacji mogą być różne, często wspomagane technicznie:

  • techniczne, automatyczne, które polegają głównie na wykorzystaniu nowych narzędzi analizujących strony WWW, weryfikujących kody źródłowe, język HTML, pokazujących błędy zapisów, np. IE Inspektor; na tych danych opiera się ocenę jakości;
  • statystyczne polegające na wyciąganiu wniosków z analizy liczby danych, linek, liczeniu ruchu użytkowników do stron, frekwencji wyrazów czy podlinkowań; metoda ta także jest często wspomagana technicznie przez programy takie jak: Alexa.com, Wayback Machine, AwStats czy proste liczniki stron;
  • metoda analityczna (czy ekspercka) najbardziej efektywna i miarodajna z punktu widzenia użytkownika, który chce podejść krytycznie do informacji; polega na wieloaspektowym przyjrzeniu się informacji; na zrozumieniu jej cech formalnych i treściowych oraz określeniu, które z nich są najważniejsze w danym momencie i wobec konkretnych potrzeb.

W rezultacie przy ocenie jakości informacji zwykle stosuje się kilka metod jednocześnie. Przy tej ostatniej metodzie koniecznym jest wybranie z zestawu kryteriów tych, które przydadzą się przy ocenie i przejście do analizy informacji. Najczęściej analiza ta polega na odpowiedzeniu sobie na szereg pytań pomocniczych i krytycznym oglądzie tego, z czym ma się do czynienia.

Kryteria oceny

Wiarygodność informacji:

Na początek najważniejsza jest analiza URL. Analiza elementów adresu (trybu dostępu) jest pierwszą czynnością, jaką się wykonuje, żeby określić właściciela czy nadawcę informacji, gdyż adres ten zawiera bardzo istotne informacje. Potem identyfikacja instytucji sprawczej i autora. Zastanawiamy się, jaki jest cel nadrzędny przyświecający twórcom stron i czy ten cel jest ważny? Jaki był powód utworzenia stron? Jaka jest opinia o stronach? Może dowiesz się czegoś o nich z innych stron? Jaka jest rzetelność opracowanej informacji?

Obiektywizm treści:

Sprawdzamy sponsorowanie stron. Czy w serwisie są odesłania (linki) do innych konkurencyjnych stron? Czy jest obiektywny komentarz do innych stron? Czy zachowano równowagę między jednym punktem widzenia a innym? Jak wygląda prezentacja różnych punktów widzenia? Jeśli na stronie pokazano różne punkty widzenia, to warto się im przyjrzeć - to dodaje stronie wartości. Czy wiesz, co to jest propaganda i czy znajdujesz jej elementy na stronie?

Aktualizacja:

Jaka jest częstotliwość aktualizacji? Czy podano daty powstawania stron „od... do”, określenia: Last updated? Nie ufaj za bardzo datom pojawiającym się we właściwościach (Mozilla), ponieważ mogą być generowane automatycznie. Czy potwierdzasz adekwatność dat do zawartości treści, czy nie jest to informacja „zakurzona”?

Kompletność i dokładność zasobów:

Przyjrzyjmy się liczbie danych. Czy zaspakajają twoje potrzeby informacyjne? Czy istnieje związek między treściami a celami serwisu, może jakieś informacje traktowane są priorytetowo? Dlaczego? Jakie zastosowano kryteria przy doborze liczby danych? Czy są odesłania do innych stron; jak są zorganizowane? Czy linki działają? Czy są wartościowe? Poprawne zestawienia aktualnych linek świadczą o poważnym podejściu do tematu. Czy informacja jest dobrana do poziomu grupy docelowej?

Spójność i forma:

Zbadajmy wygląd i strukturę stron. Jak skonstruowana jest strona główna (domowa) - czy mieści się na jednym ekranie? Czy zachowana jest równowaga między formą a treścią? Zbadaj ilość tekstu i liczbę obrazków (nadmiar, niedomiar). Oceń profesjonalizm i oryginalność grafiki. Analizuj układ treści (działy, poddziały, sekcje). Oceń efekty multimedialne na stronie. Czy dostrzegasz uwypuklenie elementów istotnych (adres, pilny komunikat)? Jak wygląda redakcja tekstu i jego styl? Czy są błędy? Czy dostrzegasz logikę i klarowność stron, spójność wszystkich elementów.

Dostępność i technika:

Czy interfejs zakładanego użytkownika jest dostosowany do jego poziomu? Jaka jest wertowalność i nawigacja? Jak oceniasz interaktywność strony (nawiązywanie kontaktów: użytkownik - właściciel). Czy można ocenić jakość pracy serwera (szybkość, pojemność, niezawodność)? Czy są liczniki, statystyka? Czy zastosowano standardy software’u (bezkolizyjny dostęp do stron z różnych przeglądarek np. starych wersji)? Czy stosuje się najnowsze rozwiązania technologiczne do przekazywania informacji i poszerzania oferty (bazy danych, wyszukiwarki, programy pocztowe i inne)?

Relewancja i użyteczność:

Czy właściwie dobrano treści do potrzeb zakładanego użytkownika? Czy jest POMOC, HELP? Czy istnieje wersja angielska stron lub inne wersje językowe? Jak wygląda komunikacja z użytkownikiem? Czy strony dostosowano dla słabo widzących?

Powyższe kryteria oceny mogą być modyfikowane, selekcjonowane i zmieniane, bowiem w świecie nowoczesnych technologii informacyjnych standardy ulegają zmianie w miarę rozwoju stosowanych technik. W innym czasie mamy inne potrzeby, odmienne podejścia do tego samego tematu. Zmienność i rozwój wpisane są w naturę informacji elektronicznej. Jednak najważniejsze z kryteriów, takie jak: autorstwo, aktualizacja, wiarygodność, poprawność powinny być brane pod uwagę zawsze, mają przecież odniesienia do tradycji.

Obszary szczególnie ważne z punktu widzenia oceny jakości informacji

Internet wkroczył we wszystkie obszary naszego życia, także te najbardziej istotne z punktu widzenia człowieka, dlatego podejście do oceny jakości informacji powinno być szczególnie odpowiedzialne właśnie w tych newralgicznych punktach. Wszędzie tam, gdzie fałszywa, zła czy niepełna informacja może zagrozić człowiekowi, powinniśmy ingerować, nawet kodyfikując zasady związane z jej oceną i wykorzystaniem. Dotyczy to stron siejących nienawiść, nawołujących do aktów terrorystycznych czy związanych ze zdrowiem. Te ostatnie doczekały się bardzo obszernej literatury naukowej i oficjalnych zaleceń, które stają się standardami obowiązującymi w poszczególnych krajach. Komisja Europejska zatwierdziła przewodnik, w którym wyróżnia się następujące kryteria oceny stron dotyczących zdrowia:

  1. Transparency and honesty - podanie wszystkich danych adresowych dostawców treści, jasne określenie celów i zamiarów oraz grupy docelowej, do której skierowana jest dana informacja. Pełna jawność informacji o donatorach stron, wolontariuszach, którzy je tworzą, reklamodawcach i innych.
  2. Authority - jasny status wykorzystanych źródeł informacji i danych w bazach. Wiarygodne dane o instytucjach opracowujących dane, daty ich dostarczania. Rekomendacje.
  3. Privacy and data protection - podanie informacji o polityce zabezpieczania danych oraz procedur ich przetwarzania zgodnie ze standardami określonymi w: Data Protection Legislation (Directives 95/46/EC and 2002/58/EC).
  4. Updating of information - bieżąca aktualizacja stron z datami określającymi wprowadzanie zmian. Monitorowanie aktualności linek, do których się odsyła ze stron. Melioracja informacji.
  5. Accountability - jasne opisanie odpowiedzialności za informacje, podanie nazwisk ekspertów, którzy je przygotowują - na każdej stronie z adresem dla użytkownika do kontaktu. Dokładne przedstawienie partnerów współpracy i zapewnienie, że są to partnerzy wiarygodni. Jasno opisana polityka edytowania stron i doboru materiału.
  6. Accessibility - ma być zapewniona pomoc użytkownikom w łatwym dostępie do źródeł, proste nawigowanie, poprawne wyszukiwanie i inne[2].

Technologie informacyjne i ich wpływ na jakość informacji

Informacja elektroniczna (to także ogromna liczba bitów, którą trzeba przetwarzać) zależy w dużej mierze od rozwoju technologii: im lepsi są jej dostawcy, tym wyższa jakość informacji, szybkość jej przetwarzania, bezpieczeństwo przechowywania i szeroki wybór. Jak wielką wagę przykłada się dziś na świecie do technologii informatycznych, jaką pokłada się w nich nadzieję, widać chociażby na rynkach finansowych, na których nowe pokolenie optymistycznie inwestuje pieniądze. Na giełdach mamy indeksy[3] oparte o firmy technologiczne, spółki internetowe np. w USA NASDAQ notuje około 3200 spółek, wśród nich Intel Corp., Microsoft Corp. czy Apple Computer, Inc. W Polsce TECHWIG indeks obejmujący 45 spółek giełdowych zakwalifikowanych do innowacyjnych technologii, m.in. Prokom, ComputerLand, Interia, Optimus, TVN i inne. O tym znaczeniu nie trzeba nikogo przekonywać, wystarczy podać kilka przykładów źle zrobionego oprogramowania dla projektów rządowych, publicznych, wojskowych (komputeryzacja ZUS, PKO, Funduszy Zdrowotnych, włamania hakerów do serwerów militarnych, danych poufnych), by stwierdzić, że państwo pozbawione bezpiecznych, bezawaryjnych, efektywnych technologii nie jest w stanie sprawnie funkcjonować. Biznes, nauka, edukacja tym bardziej. Prestiż i sukces firm technologicznych zależy dziś w dużej mierze od jakości ich oprogramowania, które musi spełniać wszystkie standardy konieczne do efektywnego przetwarzania wielkiej, stale rosnącej, liczby danych (improving), kontroli jej poprawności i prawdziwości (control), zabezpieczenia danych (protection) oraz prezentacji ich w sposób zrozumiały dla końcowego odbiorcy (understanding)[4].

Technologie są także niebezpieczne. Źle rozumiane i źle użyte mogą przynieść wiele szkody. Ponieważ dziś nie wypada radzić ludziom, iż nie należy dać się zawładnąć technologiom, bo fakty są inne, to jednak możemy radzić, by nie pozbywali się rozumu, obcując z nimi. Przykładem technologii, która nami zawładnęła jest wyszukiwarka Google. Warto jednak wiedzieć, że googlomania, jeśli się jej poddamy bezkrytycznie, może nam czasem szkodzić, nie pomagać.

Google jest najczęściej używaną wyszukiwarką na świecie i ma wiele zalet - szybkość i sprawność działania, niezawodność i wychodzenie naprzeciw potrzebom użytkowników. Jej usługa PageRank - porządkowania wyszukań - jest unikalna i nie na sprzedaż, opiera się o analizy:

  • popularności stron (ilu innych użytkowników linkuje się do wyszukanej strony),
  • ruchu na stronach (liczniki),
  • jakości linek, jakie te strony zawierają czy propagują,
  • częstotliwości występowania danego wyrazu (frekwencja występowania) na stronach.

Obok głównej usługi ogólnego (nie głębokiego) przeglądania sieci, mamy także jej modyfikacje czy wersje: Google Scholar i Google Books dedykowane tylko dla materiałów naukowych, które mają dać użytkownikom o bardziej wyrafinowanych potrzebach materiały recenzowane, unikatowe, trudniejsze w odbiorze, ale okazuje się, że mechanizmy wyszukiwania tych nowych narzędzi są bardzo złe. Nie są w stanie rozpoznać podstawowych elementów opisów bibliograficznych (np. rok publikacji) i dają błędne wyniki.

Wielość usług powoduje także pojawianie się większej liczby błędów w oprogramowaniu, co jest krytykowane przez przeciwników tej wyszukiwarki. Google ma także inne słabości: za dużo widzi tzw. stop words, (6,700,000,000 dla zapytania the). Może się zdarzyć, że dostanie się rezultat wyszukań zupełnie nierelewantny do poszukiwań. Google pokaże strony nie dlatego, że są tam wyrażenia, które opisano, ale dlatego, że mają wysoką wartość rankingową w Google. Jedyny sposób, żeby sprawdzić, czy strona odpowiada potrzebom, to zajrzeć do Google cached copy[5]. Google także pokazuje za dużo wyszukań - nie da się ich wszystkich przejrzeć, często są to wypowiedzi z forów i blogów, które nie są nam potrzebne (tzw. szumy informacyjne). Oczywiście dla wielu fanów Internetu i antyglobalistów największą wadą Google jest to, że staje się monopolistą i że godzi się na cenzurę w Chinach. Konkurencja jednak nie śpi: Jimmy Wales, założyciel Wikipedii, planuje stworzenie nowej komercyjnej wyszukiwarki, która ma oferować znacznie lepsze wyniki wyszukiwania niż mechanizmy gigantów takich jak Google czy Yahoo. Cudowną bronią w walce o rynek wyszukiwarek ma być połączenie dobrego algorytmu z interwencją człowieka. (Dziennik Internautów, News 15504 - [27.12.2006]).

Technologie wspomagające ocenę jakości informacji

Są technologie, które wspomagają ocenę jakości informacji i które skutecznie się wykorzystuje, by pokazać wartość stron, ich popularność lub błędy. Jedną z nich jest Alexa: http://www.alexa.com/ - jest to narzędzie zbudowane w roku 1996 wspomagające inteligentną nawigację po stronach WWW. Ma mechanizmy analizy strony, której adres http się podaje. Przegląda ruch na stronach, podaje liczbę wejść w ostatnich latach i miesiącach, „widzi”, kto wchodzi i skąd, podaje szybkość ładowania stron, liczbę podlinkowań do strony, recenzje (jeśli są) i inne dane, które pozwalają ocenić strony. Podaje także adresy kontaktowe do osób odpowiedzialnych za redagowanie stron. Ciekawą funkcjonalnością jest to, że potrafi wyszukać stare strony i informację historyczną na temat rozwoju witryny. Wykorzystuje do tego narzędzie WayBack Machine, które skanuje Internet i archiwizuje strony.

Przykładowa analiza Alexy dla EBIB:

Elektroniczna Biblioteka nowy.ebib.info. Serwis informacyjny dla bibliotekarzy i specjalistów informacji. Analiza z końca marca 2007.
Traffic Rank for ebib.info: 509,968.
Site Stats for ebib.info:
Traffic Rank for ebib.info: 509,968 (98,298) - za pół roku
Speed: Very Fast (86% of sites are slower), Avg Load Time: .8 Seconds
Other sites that link to this site: 40 (pokazuje listę podlinkowań do EBIB)
Online Since: 06-Jul-2005

Reach for Ebib.info:
Percent of global Internet users who visit this site:
Yesterday 1 wk. Avg. 3 mos. Avg. 3 mos. Change
N/A* 0.00005% 0.000185% 35%

Traffic Rank for Ebib.info:
Alexa traffic rank based on a combined measure of page views and users (reach):
Yesterday 1 wk. Avg. 3 mos. Avg. 3 mos. Change
N/A* 969,120 509,968 98,298

Page Views per user for Ebib.info:
The number of unique pages viewed per user per day for this site:
Yesterday 1 wk. Avg. 3 mos. Avg. 3 mos. Change
N/A* 3.5 2.6 4%

* Daily values are not available for sites ranked outside of the Top 100K.

Ebib.info users come from these countries:
Poland 96.3%
United Arab Emirates 3.7%

Where people go on Ebib.info:
ebib.info 76%
nowy.ebib.info 24%

Alexa także na bieżąco pokazuje ranking stron z danej dziedziny czy kraju, np.:

Top Sites Poland (ranking stron z domeny PL w dniu 2.04.07):

  1. Google Polska - wyszukiwarka stron WWW, grafiki, grup dyskusyjnych; katalog tworzony na bazie ODP i wzbogacany przy użyciu własnej technologii Google.
  2. Onet.pl - wiadomości z kraju i ze świata, baza danych firm i instytucji, ogłoszenia, pasaż handlowy, wyszukiwarka i katalog stron, czat, blog, randki, pogoda, konta e-mail i WWW, kartki pocztowe.
  3. Allegro - polski internetowy serwis aukcyjny.
  4. Wirtualna Polska - serwisy informacyjne i finansowe, katalog stron internetowych, poczta e-mail i strony WWW, czat, komunikator, randki, gry online, platforma e-commerce.
  5. Interia.pl - serwisy informacyjne, m.in. pogoda, wiadomości, motoryzacja, kobieta; konta pocztowe i WWW, wyszukiwarka i tematyczny katalog stron internetowych, czateria, wirtualne kartki, pasaż handlowy.
  6. Fotka.pl - serwis fotograficzny.
  7. YouTube - serwis wymiany wideo.

Innym przykładem technologii wspomagającej jest IE Inspector http://www.ieinspector.com/, który analizuje strony WWW pod kątem ich poprawności technicznej czy Web Page Analizer http://www.websiteoptimization.com/services/analyze/. Ten ostatni jest darmowy, można sprawdzić stronę WWW, czy nie zawiera błędów i jak jest zbudowana. Przykładowa analiza stron wygląda następująco:

Analysis and Recommendations:

  • TOTAL_HTML - Congratulations, the total number of HTML files on this page (including the main HTML file) is 1 which most browsers can multithread. Minimizing HTTP requests is key for web site optimization.
  • TOTAL_OBJECTS - Caution. You have 7 total objects on this page. Consider reducing, eliminating, and combining external objects (graphics, CSS, JavaScript) to reduce the total number of objects, and thus separate HTTP requests.
  • TOTAL_IMAGES - Caution. You have a moderate amount of images on this page (5). Consider using fewer images on the site or try reusing the same image in multiple pages to take advantage of caching.
  • TOTAL_CSS - Congratulations, the total number of external CSS files on this page is 1. Because external CSS files must be in the HEAD of your HTML document, they must load first before any BODY content displays. Although they are cached, CSS files slow down the initial display of your page.
  • TOTAL_SIZE - Caution. The total size of this page is 60711 bytes, which will load in over 8 seconds on a 56Kbps modem - or 13.50 seconds. Consider reducing total page size to less than 30K to achieve sub eight second response times on 56K connections. Be sure to provide feedback for pages over 30K by layering your design to display useful content within the first two seconds. Consider optimizing your site with Speed Up Your Site or contacting us about our optimization services.
  • HTML_SIZE - Congratulations, the total size of this HTML file is 17144 bytes, which less than 20K. Assuming that you specify the HEIGHT and WIDTH of your images, this size allows your page to display content in well under 8 seconds, the average time users are willing to wait for a page to display without feedback.
  • IMAGES_SIZE - Warning! The total size of your images is 40312 bytes, which is over 30K. Consider optimizing your images for size, combining them, and replacing graphic rollovers with CSS.
  • CSS_SIZE - Congratulations, the total size of your external CSS is 3255 bytes, which is less than 4080 bytes. This will fit into three higher-speed TCP-IP packets.
  • MULTIM_SIZE - Congratulations, the total size of all your external multimedia files is 0 bytes, which is less than 4K.

Kolejnym przykładem technologicznym, wspomagającym ocenę jakości informacji elektronicznej są programy anty-plagiatowe, które mają za zadanie sprawdzać oryginalność autorstwa. Stały się one w Polsce bardzo modne pod koniec lat 90., kiedy nastąpił boom edukacyjny i profesorowie uniwersytetów nie byli w stanie sprawdzić prac swoich magistrantów. Pojawiły się nadzieje, że technologia załatwi za edukatora wnikliwą merytoryczną analizę pracy i problem zostanie rozwiązany. Niestety programy anty-plagiatowe nie są w stanie rozpoznać wszystkich plagiatów, bo nie są w stanie analizować wszystkich formatów, języków, kodów, znaków, nie są także w stanie objąć swoją analizą takiej liczby obiektów, które mogą być ściągane z sieci. Niemniej jednak, jakaś część plagiatów jest przez nie wykrywana. Znaną w Polsce firmą, która produkuje oprogramowanie pod tą samą nazwą jest firma PLAGIAT.PL.

Pułapki sieci

Internet wraz ze wszystkimi swoimi zaletami wnosi w nasze życie także zjawiska niepokojące, niewłaściwe i wręcz przestępcze. Zagrożeń w sieci jest bardzo wiele, niektóre z nich mają już swoje nazwy i opisy:

  1. Marketing wirusowy - polega na zainicjowaniu sytuacji, w której potencjalni klienci będą sami między sobą rozpowszechniać informacje dotyczące firmy, usług czy produktów.
  2. Wojna edycyjna - zjawisko pojawiające się w Wikipedii polegające na tym, że edytorzy walczą ze sobą, ciągle zmieniając to samo hasło. Każdy z nich uważa, że jego wersja jest lepsza.
  3. Sponsorowane linki - opłacone miejsce na liście wyników wyszukiwarek (niektóre wyszukiwarki separują te linki, inne nie).
  4. Trolling - jest to wysyłanie wrogich, obraźliwych lub kontrowersyjnych wiadomości na jedno z publicznych forów czy list dyskusyjnych.

Nieetyczne pozycjonowanie stron:

  1. Cloaking - osłanianie, maskowanie. Spamowanie wyszukiwarek, oszukiwanie robotów. Jeśli na stronę wchodzi np. Googlebot, to widzi stronę poprawną; jeśli inny użytkownik, to może zobaczyć zupełnie co innego.
  2. Doorway page - strona internetowa specjalnie stworzona, by przekierować użytkownika do innego miejsca.
  3. Link farm - grupa stron internetowych przekierowujących linki wzajemnie, tak by stworzyć pozory odniesień. To podbija ich wartość w wyszukiwarkach.
  4. Google bomb - bombardowanie Google linkami zwrotnymi. Linki z odpowiednim hasłem np. „Kretyn” umieszcza się w różnych serwisach WWW, tak by prowadziły np. do strony Leppera.
  5. Keyword stuffing - podnoszenie rankingu stron przez umieszczanie popularnych słów kluczowych w metadanych, nieodzwierciedlających tematyki stron[6].

Falsyfikacja i mistyfikacja

Z punktu widzenia jakości informacji i wiedzy najpoważniejszym jednak zagrożeniem jest zamierzone, inteligentne kłamstwo i oszustwo. Sprawia ono najwięcej kłopotów - może pozostać niewykryte, może mieć poważne następstwa. Mistyfikacje czy fałszerstwa naukowe pojawiające się w Internecie, za które sieć „zbiera niezasłużone cięgi”, nie są czymś nowym, istniały zawsze. Znane są przykłady z historii nauki szeroko omawiane w przeszłości w czasopismach czy raportach naukowych:

  1. Człowiek z Piltdown (Eoanthropus dawsoni), "odnaleziony" w hrabstwie Sussex w 1912 roku przez Charlesa Dawsona; aż do lat 50. XX w. był eksponatem w Muzeum Historii Naturalnej w Londynie. Później okazało się, że Dawson połączył fragment małpiej szczęki z fragmentem ludzkiej czaszki i przedstawił to opinii światowej jako jedno znalezisko.
  2. Plemię Tasaday na wyspie Mindanao na Filipinach. Filipiński minister Manuel Elizalde "odkrył" w 1971 plemię żyjące w jaskiniach w warunkach z epoki kamiennej. Na mistyfikację tę nabrało się wiele osób (w tym m.in. z National Geographic), co doprowadziło do utworzenia fundacji dla ochrony plemienia Tasaday. Pieniądze z tej fundacji nigdy nie trafiły na cele ochrony tego plemienia, ponieważ - jak się okazało po upadku w 1986 prezydenta Filipin Marcosa - jego członkami byli mieszkańcy pobliskich wiosek zmuszeni przez Elizalda do odgrywania roli jaskiniowców. Ze zdefraudowanymi milionami Manuel Elizalde zbiegł z Filipin jeszcze w 1983[6].

Dzisiaj fałszowanie i mistyfikowanie informacji może ulec zwielokrotnieniu, ponieważ więcej osób ma dostęp do narzędzi komunikacyjnych i może współuczestniczyć w tworzeniu złej informacji. By uniknąć tych pułapek, trzeba zatem ciągle przypominać o tym, czym są:

Miejska legenda (urban legend) - plotka, która ma znamiona poprawnej informacji, przekazywanej z ust do ust, często urasta do wielkiej legendy i opowieści. Z czasem staje się mitem, w który wierzymy.

  1. Taką legendą powtarzaną przez pokolenia była legenda, że Żydzi kontynuują mordy rytualne. Wymordowanie mieszkańców Kielc w latach 40. było uzasadniane taką plotką.
  2. Przykładem takiej plotki rozpowszechnianej w Internecie było opisanie osoby, która suszyła ukochanego psa w mikrofalówce. Wiele osób w to wierzyło.

Falsyfikacja - podrabianie czegoś, przedstawianie czegoś niezgodnie z prawdą. Fałszowanie rzeczywistości. Słynne były fałszywe wpisy do angielskiej Wikipedii:

  1. Autor wpisu w Wikipedii Brian Chase umieścił fałszywą biografię dziennikarza Johna Seigenthalera, z której wynikało, że Seigenthaler zamieszany był w sprawę zabójstwa prezydenta Kennedy'ego. Dziennikarz musiał się bronić, protestował na łamach USA Today, gdzie także skrytykował encyklopedię. W rezultacie Brian Chase przeprosił Seigenthalera i Wikipedię, zrezygnował z pracy, tłumacząc się, że to miał być głupi żart. Twierdził, że był pewien, że nikt nie będzie jego wpisu traktował poważnie.
  2. Na początku 2006 r. okazało się, że asystenci senatorów Kongresu amerykańskiego zmieniali biografie swoich przełożonych, zacierając na przykład fakty niewygodne. Adam Curry, jedna z pierwszych osób zajmujących się „podcastingiem” - oddolną produkcją audycji i słuchowisk radiowych dostępnych przez Internet - zmienił wpisy, tak by umniejszyć znaczenie innych zasłużonych osób. Nawet twórca Wikipedii, James Wales, zdaniem niektórych w nieuprawniony sposób, zmienił własną biografię w Wikipedii[6].

Mistyfikacja - celowe wprowadzenie kogoś w błąd przez nadanie czemuś pozorów prawdy. Internet sprzyja takim zachowaniom. Przykłady, które każą nam dokładnie przyglądać się temu, co widzimy czy o czym czytamy:

  1. Henryk Batuta - postać fikcyjna, stworzona na potrzeby mistyfikacji, której celem stała się w latach 2004-2006 m.in. polska Wikipedia. Anonimowy autor lub autorzy stworzyli na Wikipedii hasło opisujące nieistniejącą postać historyczną, a po ośmiu miesiącach ci sami lub inni autorzy zaczęli dodawać informacje o tej fikcyjnej postaci do innych haseł w Wikipedii, prawdopodobnie dla uwiarygodnienia fałszerstwa i podbicia rankingu tego hasła w wyszukiwarkach internetowych. Według artykułów prasowych w Gazecie Wyborczej, Przekroju i The Observer mistyfikacja ta była dziełem grupy osób określających się jako Armia Batuty. (hasło zostało w Wikipedii do dziś, oczywiście z wyjaśnieniami).
  2. YouTube - przypadek Little Loca i Lonelygirl15 - lansowania niby amatorskich filmów z życia dwóch nastolatek, które nie były nastolatkami. Były to dorosłe kobiety kreowane przez komercyjną agencję artystyczną, o czym nikt nie był poinformowany. Filmy nie były amatorskie, wszystko sfingowane, by podnieść oglądalność wideo i wykreować aktorki.

Dużo trudniej jest walczyć z kłamstwem, fałszerstwem naukowym. Choć od lat przyjęte są standardy i opracowane metodologie badawcze, obowiązują zasady publikowania prac, oceny i recenzowania, to jednak nadal mamy do czynienia z plagiatami, negowaniem oczywistych faktów (kłamstwo oświęcimskie) czy osiągnięć nauki (ewolucja), podawaniem fałszywych osiągnięć naukowych i łamaniem zasad etyki uczonego. Powinniśmy wiedzieć o tym, że tradycyjne metody oceny takie jak: recenzowanie, sprawdzanie dorobku badawczego autora czy analiza stylu, przegląd cytowań są stale w użyciu. Przy ocenie treści ważnym kryterium jest metoda opisu badania. Uczony powinien tak opisać eksperyment, by inny uczony mógł go powtórzyć i sprawdzić. W przypadku wiedzy teoretycznej powinien podać ścieżkę dochodzenia do rezultatów, tak by była jasna i zrozumiała. Jeśli tego nie ma, należy być ostrożnym w ocenie zawartości treści. Do tradycyjnych metod dochodzą teraz nowe metody wspomagane przez technikę, a mimo to słynne są najnowsze fałszerstwa i mistyfikacje naukowe:

  1. Żart Sokala - eksperyment z roku 1996, który polegał na opublikowaniu przez amerykańskiego fizyka Alana Sokala w recenzowanym socjologicznym piśmie naukowym Social Text pracy pod tytułem Transgressing the boundaries: towards a transformative hermeneutics of quantum gravity - będącej stekiem wymysłów autora nafaszerowanych naukowymi zwrotami. Zrobił to po to, by przekonać się, czy poważne czasopismo naukowe jest w stanie taką mistyfikację przyjąć[7].
  2. Niedawno, bo w 2004 r., świat obiegła informacja, że w Korei Południowej sklonowano człowieka. W Science ukazał się artykuł Woo Suk Hanga (Science 303, 1669-1674; 2004). W roku 2005 rozpoczęła się naukowa debata, w której krytykowano eksperymenty i osiągnięcia Koreańczyka, a w roku 2006 Seoul National University opracował raport stwierdzający, że dane związane z klonowaniem człowieka były sfałszowane.

W nauce mamy do czynienia często z wiedzą nową, niezrozumiałą, kontrowersyjną, którą jest trudno ocenić także fachowcom. Specjalizacja jest tak duża, że uczeni nie rozumieją często prac swoich kolegów po fachu. Dlatego mistyfikacja Sokala mogła się udać. Recenzent być może uznał, że jest za głupi, żeby zrozumieć tak mądre wywody fizyka i puścił tekst do druku, narażając na szwank dobre imię czasopisma naukowego. Zapewne sprawdził autora i uznał, że jest na tyle wiarygodny, że wolno mu pisać trudne i kompletnie niezrozumiałe teksty.

Istnieje także inne niebezpieczeństwo, które pojawiło się niedawno w sieci. Zaczęły powstawać automatycznie generowane prace naukowe. Oprogramowaniu trzeba dostarczyć „pokarm” czyli prawdziwe teksty, najlepiej z tej samej dziedziny. a ono samo wytworzy dowolną zbitkę. To tworzenie podróbek (bogus papers) traktuje się jak dobrą zabawę, ale dla tych, którzy muszą z takimi materiałami walczyć, jest to mało zabawne. Nie potrafią sobie z tym zjawiskiem poradzić nie tylko organizatorzy konferencji, ale i bibliotekarze zarządzający repozytoriami otwartymi. Przykładem takiego oprogramowania jest SCIgen - An Automatic CS Paper Generator - http://pdos.csail.mit.edu/scigen/ opracowany przez studentów z MIT w USA (Jeremy Stribling, Max Kron, Dan Aguayo). Użyli oni tego oprogramowania, żeby wyprodukować artykuł na konferencję The 9th World Multi-Conference on Systemics, Cybernetics and Informatics July 10-13, 2005 - Orlando, Florida, USA i przepchnąć go przez system oceny i akceptowania komitetu organizacyjnego[8]. Oczywiście studenci opisali po fakcie całą operację, co niekoniecznie musi wpłynąć pozytywnie na obieg informacji naukowej, wręcz przeciwnie. Po takich wpadkach myślenie charakterystyczne dla wielu z nas - polegające na tym, iż uważamy, że tylko recenzowane czasopisma naukowe mają wartość - zostaje zachwiane. Jedyna nauka płynąca z tego doświadczenia jest taka, że ważne jest bardzo krytyczne podejście do tego, co czytamy i nie ma znaczenia, czy postać dokumentu jest elektroniczna czy tradycyjnie drukowana na papierze. Jeśli mamy do czynienia z bełkotem, to nie bójmy się go nazwać po imieniu.

Konkluzja

Liczba dokumentów elektronicznych nie ulegnie zmniejszeniu, falsyfikatów i źle opracowanych informacji przybędzie. Zawartość sieci spęcznieje tak, że wartość krytycznego podejścia do źródeł informacji elektronicznych będzie w cenie. Dla specjalistów informacji, infobrokerów, analityków, recenzentów, ekspertów sieci, oznaczać to będzie z pewnością dużo pracy. Ta wiedza i doświadczenie, jakiego nabywamy codziennie, działając w obszarze nowoczesnej komunikacji i informacji, przyniesie korzyści nie tylko nam, ale i zagubionym w sieci użytkownikom, dla których pracujemy. Zatem bądźmy uważnymi obserwatorami przemian i stale czuwajmy nad jakością tego, co czytamy, polecamy, tworzymy. W świecie trollingu, spamowania, kłamstw, mistyfikacji, propagandy zostańmy netokracją - arystokracją słowa!

Przypisy

[1] MILLER, Holmes. The multiple dimensions of information quality. Information System Management. 1996, vol. 13, nr 2, s. 79.

[2] Commission of the European Communities, Brussels, 29.11.2002, COM(2002) 667 final, Communication from the Commission to the Council, The European Parliament, The Economic and Social Committee and the Committee of the Regions: eEurope 2002: Quality Criteria for Health related Websites [on-line]. [dostęp 24 marca 2007]. Dostępny w World Wide Web: http://ec.europa.eu/information_society/eeurope/ehealth/quality/index_en.htm.

[3] Indeks giełdowy - wartość obliczona na podstawie wyceny akcji wybranych spółek giełdowych. Umożliwia syntetyczne przedstawienie koniunktury na giełdzie lub stanu jakiegoś sektora spółek. In Wikipedia. Wolna Encyklopedia [on-line]. [dostęp 21 marca 2007.]. Dostępny w World Wide Web: http://pl.wikipedia.org/wiki/Indeks_gie%C5%82dowy).

[4] MASCOTT, Laurie. Ensuring the quality information.., KM Review 2006, vol. 8, nr 6.

[5] Cached copy - ostatni skan, zdjęcie strony WWW, które Google odwiedziła i zapisała. Pozwala to użytkownikom wejść na stronę wówczas, kiedy z jakichś powodów serwer nie odpowiada. Trzeba pamiętać o tym, że zawartość takiej strony może nieco różnić się od obecnej. Na liście wyszukań Google wejście do kopii znajduje się zaraz po adresie http.

[6] Wikipedia. Wolna Encyklopedia [on-line]. [dostęp 20 marca 2007]. Dostępny w World Wide Web: http://pl.wikipedia.org.

[7] SOKAL, Alan. Transgressing the boundaries: towards a transformative hermeneutics of quantum gravity. Social Text 1996, nr 46/47, s. 217-252.

[8] CALLAOS, Nagib. With regards to the bogus papers submitted to WMSCI 2005 [on-line]. [dostęp 2 kwietnia 2007]. Dostępny w World Wide Web: http://www.iiisci.org/sci2005/website/regards.asp.

Literatura:

  1. BARD, Alexander, SÖDERQVIST, Jan. Netokracja. Nowa elita władzy i życie po kapitalizmie. Warszawa: Wydawnictwa Akademickie i Profesjonalne 2006. ISBN 83-60501-06-8.
  2. BARKER, Joe. Finding information on the Internet: a tutorial, evaluating web pages: techniques to apply & questions to ask UC Berkeley - Teaching Library Internet Workshops [on-line]. [dostęp 15 marca 2007]. Dostępny w World Wide Web: http://www.lib.berkeley.edu/TeachingLib/Guides/Internet/Evaluate.html.
  3. SMITH, Alastair G. Criteria for evaluation of Internet information resources [on-line]. [dostęp 15 marca 2007]. Dostępny w World Wide Web: http://www.vuw.ac.nz/~agsmith/evaln/.
  4. IE Inspektor [on-line]. [dostęp 20 marca 2007]. Dostępny w World Wide Web: http://www.ieinspector.com/.
  5. AwStats Official Websites [on-line]. [dostęp 21 marca 2007]. Dostępny w World Wide Web: http://awstats.sourceforge.net/.
  6. SOKAL, Alan, BRICMON, Jean. Modne bzdury. O nadużyciach nauki popełnianych przez postmodernistycznych intelektualistów. Warszawa., 2004.
  7. ADAMS, Stephen. Information quality, liability and corrections. In Online Magazine [on-line]. Sep/Oct 2003, Vol. 27, No. 5 [dostęp 23 marca 2007]. Dostępny w World Wide Web: http://www.infotoday.com/online/sep03/adams.shtml.
  8. Wpis w blogu z dnia 25 czerwca 2004: Roman Giertych to też Kretyn [on-line]. [dostęp 15 marca 2007]. Dostępny w World Wide Web: http://giertych.blogspot.com/2004/06/roman-giertych-to-te-kretyn.html.
  9. Słownik języka polskiego [on-line]. Warszawa: Wydaw. Naukowe PWN, 2007. [dostęp 30 marca 2007]. Dostępny w World Wide Web: http://sjp.pwn.pl/.
  10. MAJ, Marcin. Przeprosił za wpis na Wikipedii. In Dziennik Internautów [on-line]. [dostęp 30 marca 2007]. Informacja z dnia: 12.12.2005 r. [dostęp 23 marca 2007]. Dostępny w World Wide Web: http://www.di.com.pl.
  11. HOFMOKL, Justyna, TARKOWSKI, Alek. Wikipedia - pospolite ruszenie encyklopedystów. In Biuletyn EBIB [on-line]. 2006, nr 3 (73). Dostępny w World Wide Web: http://www.ebib.info/2006/73/hofmokl_tarkowski.php. ISSN 1507-7187.
  12. Wikipedia. Wolna encyklopedia. [on-line]. [dostęp 16 marca 2007]. Dostępny w World Wide Web: http://pl.wikipedia.org/wiki/Henryk_Batuta.
  13. SANGER, L. Why Wikipedia must jettison its anti-elitism. In Kuro5hin [on-line]. 31.12.2004 [dostęp 16 marca 2007]. Dostępny w World Wide Web: http://www.kuro5hin.org/story/2004/12/30/142458/25.
  14. KIRK, Elizabeth E. Information and its counterfeits: propaganda, misinformation and disinformation [on-line]. [dostęp 30 marca 2007]. Dostępny w World Wide Web: http://www.library.jhu.edu/researchhelp/general/evaluating/counterfeit.html.

Artykuł był drukowany w materiałach konferencyjnych XI seminarium z cyklu Digitalizacja zasobów informacyjnych "W poszukiwaniu cyfrowych informacji", Warszawa, Centrum Promocji Informatyki, 17 stycznia 2007.

 Początek strony



Ocena jakości informacji elektronicznej. Pułapki sieci / Bożena Bednarek-Michalska// W: Biuletyn EBIB [Dokument elektroniczny] / red. naczelny Bożena Bednarek-Michalska. - Nr 5/2007 (86) czerwiec. - Czasopismo elektroniczne. - [Warszawa] : Stowarzyszenie Bibliotekarzy Polskich KWE, 2007. - Tryb dostępu: http://www.ebib.info/2007/86/a.php?bednarek. - Tyt. z pierwszego ekranu. - ISSN 1507-7187