Nr 5/2007 (86), Współpraca zagraniczna bibliotek. Badania, teorie wizje |
Bożena Bednarek-Michalska
| |||
Nowy wiek i masowa produkcja przekazówPoczątek nowego wieku chyba mobilizuje masową wyobraźnię. Jak to się zdarza w okresach przełomowych, wszyscy dajemy się ponieść nowym nurtom, oczekujemy zmian i rewolucji. Niektórzy z nas głębiej analizują niezrozumiałe zjawiska, które się pojawiają, starają się nazwać nowe, odróżniając je czymś istotnym od poprzednich. Nie przypadkiem wraz z tymi zjawiskami wchodzi do naszego języka nowa terminologia, która stara się je wyjaśniać za pomocą znanych nam znaków. Dynamika zmian jest jednak tak wielka, że zanim zrozumiemy jedno pojęcie, w jego miejsce pojawia się kolejne wypierające, zastępujące lub rozszerzające znaczenie poprzedniego. Wiele pojęć ulega redefinicji, co wzbudza nasz zrozumiały niepokój. Lubimy przecież żyć w świecie zrozumiałych symboli i metafor, a nie –izmów, które dopiero musimy rozpoznać. Jedno wydaje się wszak zrozumiałe, że muszą następować zmiany, a te, które teraz się wokół nas pojawiają, zawdzięczamy sieci internet i technologiom komunikacyjnym. Wyprowadzenie sieci ze strefy zmilitaryzowanej do publicznej spowodowało faktyczną rewolucję, która dokonuje się już ponad 17 lat, a jej efekty są dostrzegane nawet przez niewprawnych i mało wyrafinowanych analityków. Rodzi się nowa kultura, powstają inne relacje społeczne i gospodarcze, buduje się cyberprzestrzeń, w której wszystko jest mobilne i zwielokrotnione. Dzięki technologiom ludzie mają takie możliwości komunikacyjne, jak nigdy dotąd, co powoduje szybki i szeroki przepływ wszelkiego typu przekazów: tekstowych, ikonograficznych, audio-wideo, danych wyrażanych w różnych miarach, a także szumów informacyjnych (np. krótkie, nic nieznaczące notki z forów). Wzbudza to dyskusje, wiąże grupy zainteresowań i interesów, często wytwarza nową jakość - w tym także nową wiedzę, nowe usługi i produkty. W tym sensie Internet spełnia ważną rolę społeczną i kulturotwórczą, a zarazem tworzy przestrzeń dla nowych elit - netokracji - uprzywilejowanych grup, które potrafią się w nowym świecie znaleźć i czerpać zyski z niematerialnych, kulturowych produkcji. Po drugiej stronie są wykluczeni - ci, którzy albo nie mają dostępu do sieci, albo jedynie bezmyślnie konsumują to, co inni im podsuną. Masowość, wielość, ilość, szybkość, jakość - to pojęcia opisujące Internet - pojęcia bardzo niepokojące - wprowadzające zamęt do świata, w którym dotychczas realizowało się potrzeby wolniej, spokojniej, mniej globalnie. Możliwości techniczne i łatwa ich dostępność sprawiają wrażenie, że wszystko jest banalnie łatwe i proste. Panuje przekonanie, że stworzenie serwisu informacyjnego czy własnej strony w Internecie nie wymaga wielkiej filozofii. Wystarczy znać podstawy HTML lub nauczyć się korzystać z platform wspomagających tworzenie stron WWW (joomla, wiki). Czasem, by wyrazić własne myśli, promować swoją twórczość, niczego nie trzeba umieć, wystarczy zapisać się na fora dyskusyjne, stworzyć bloga, wejść do serwisu Science Wiki, wysyłać swoje produkcje filmowe do YouTube, wkleić prezentację do SlideShare i stać się pełnoprawnym obywatelem świata informacji. Serwisów usługowych jest wiele i powstają nowe, wszystkie odpowiadają na już wyartykułowane potrzeby bądź je wyprzedzają. Relacje, jakie zachodzą między grupami interesów są różne: B2B (Business to Business), B2C (Business-to-consumer), B2E (Business-to-Employee), C2C (Consumer to Consumer). Wszystkie trzeba rozumieć i rozpoznawać, by móc z nich skorzystać. W związku z tą masową produkcją przeszukiwanie Internetu jest coraz trudniejsze. Fachowcy od informacji elektronicznej radzą nam: zanim usiądziesz do szukania czegoś w Internecie trenuj oczy i palce, żeby móc zastosować wiele technik, które ci pomogą i trenuj intelekt, żeby mieć krytyczne podejście do tego, czego szukasz, bo będziesz musiał zadać sobie wiele pytań, zanim zaufasz znalezionej informacji i ją wykorzystasz. Szukaj z głową! Natura Internetu jest taka, że publikowanie staje się coraz prostsze i nikt nie kontroluje tego procesu, po drugiej stronie kabla zaś nie wiadomo, kto jest - Kot? Pies? Miki Mouse? Pimko? Dlatego do internetowych źródeł trzeba podchodzić z wielką ostrożnością i uwagą. W Internecie nie ma jedynie słusznego wydawcy, korektora czy cenzora, który za nas sprawdzi treści, naniesie uwagi, poprawi błędy, odkryje fałsz i przygotuje nam listę materiałów odpowiadających naszym potrzebom. Internet musi być wolny, daje nam nowe możliwości, swobodę komunikacji i przekazu, ale bądźmy sceptyczni wobec sieci i wybierajmy informacje mądrze. Dlaczego trzeba mówić o jakości informacji elektronicznej?Kategoria jakości kojarzy się dziś najczęściej z systemem zarządzania w przedsiębiorstwie (Total Quality Management), gdzie najważniejsze są zawsze potrzeby klienta, dla którego powstaje konkretny produkt. Informacja też jest produktem, dziś szczególnie cennym, ponieważ wszystko wskazuje na to, że nowy wiek będzie ją szczególnie preferował. Wiek XXI chce swój rozwój oprzeć na badaniach, nauce i nowych technologiach podnoszących nie tylko jakość życia ludzi, ale też jakość nauki, dydaktyki i kultury. Nie na darmo mówi się o kulturze wysokiej. Także dzisiejsze mody i preferencje w świecie informacji mają swoje odniesienia do historii. Jakość informacji i spojrzenie na nią od strony jej użytkownika miały znaczenie także i kiedyś, weźmy chociażby pod uwagę 5 zasad S.R. Ranganathana (1931 Five Laws of Library Science), które co prawda opisywały dobrą pracę i działania biblioteki, ale parafrazując je dziś i odnosząc do informacji, można powiedzieć: zasób informacyjny jest żywym, rozwijającym się organizmem. Informacja jest po to, by z niej korzystać. Odpowiednia informacja powinna być dostarczona w odpowiednim czasie do odpowiedniego użytkownika. Zatem analizując informację elektroniczną płynącą w sieci, nie odkrywamy nieznanych lądów. Wpisujemy się w tradycję i historię. Trudno jest mówić o jakości informacji, generalizując, czym jest w ogóle. Natomiast łatwiej jest mówić o jakości w odniesieniu do konkretnego przypadku, ponieważ jakość co innego znaczy dla różnych odbiorców, w różnym czasie. Znaczenie jakości informacji zależy od tego, jak ona jest pojmowana i czy jest niezbędna jej odbiorcy, czy klientowi. Nie zależy od niej samej. Jakość informacji może być przez odbiorców określana bardzo różnie; to, co dla jednego jest ważne, dla innego może być nieważne. Definiowanie tych potrzeb nieustannie się zmienia jak rzeczywistość, która nas otacza. Teoretycy zajmujący się tą dziedziną wiedzy starali się opisać obiektywne atrybuty (cechy, właściwości) informacji, przez pryzmat których my możemy stwierdzić, czy dana informacja stanowi dla nas wartość. Jakość informacji ogólnie można określić przez kilka atrybutów, oto niektóre z nich[1]:
Atrybuty, które określiliśmy wyżej, są pomocne nie tylko dla każdego użytkownika informacji, ale też mogą stać się punktem odniesienia dla firm (np. infobrokerskich), które opierają swój biznes na informacji. Kiedy w biznesie mówi się o zarabianiu na informacji, o budowaniu strategii firmy, to mówi się także o znajdowaniu nisz, które należy wypełnić, by wygrać na konkurencyjnym rynku. Położenie nacisku na któryś z atrybutów i reklamowanie swoich usług w odniesieniu do konkretnej cechy informacji może być dobrą strategią biznesową i pewnie tak jest wykorzystywane. Jeśli jedna firma mówi, że dostarcza informacji małym i średnim przedsiębiorstwom w zakresie gromadzenia, analizowania i przetwarzania danych o produktach konkurencji, to cechy kompletności i wiarygodności, dokładności i precyzji mogą być podkreślane w ofercie usługowej. Jeśli firma nastawia się na dostarczanie czasopism naukowych środowiskom akademickim, to formuła szerokiej dostępności, aktualności i relewantności może być argumentem przekonującym do oferty. Firma usługowa może zbudować markę, kładąc nacisk na ten szczególny aspekt jej działalności i reklamować się jako otwarta, dostępna 24h np. dla studentów. Metody i kryteria oceny informacji elektronicznejRozszerzając dalej tę analizę jakościową, powinniśmy wskazać, jak od strony czysto praktycznej powinno się podejść do oceny jakości informacji. Wychodząc od głównych cech informacji, łatwo możemy wyznaczyć sobie kryteria oceny, które mają dla nas znaczenie. Zanim przejdziemy do kryteriów, warto pomyśleć o metodach. Metody oceny informacji mogą być różne, często wspomagane technicznie:
W rezultacie przy ocenie jakości informacji zwykle stosuje się kilka metod jednocześnie. Przy tej ostatniej metodzie koniecznym jest wybranie z zestawu kryteriów tych, które przydadzą się przy ocenie i przejście do analizy informacji. Najczęściej analiza ta polega na odpowiedzeniu sobie na szereg pytań pomocniczych i krytycznym oglądzie tego, z czym ma się do czynienia. Kryteria ocenyWiarygodność informacji:Na początek najważniejsza jest analiza URL. Analiza elementów adresu (trybu dostępu) jest pierwszą czynnością, jaką się wykonuje, żeby określić właściciela czy nadawcę informacji, gdyż adres ten zawiera bardzo istotne informacje. Potem identyfikacja instytucji sprawczej i autora. Zastanawiamy się, jaki jest cel nadrzędny przyświecający twórcom stron i czy ten cel jest ważny? Jaki był powód utworzenia stron? Jaka jest opinia o stronach? Może dowiesz się czegoś o nich z innych stron? Jaka jest rzetelność opracowanej informacji? Obiektywizm treści:Sprawdzamy sponsorowanie stron. Czy w serwisie są odesłania (linki) do innych konkurencyjnych stron? Czy jest obiektywny komentarz do innych stron? Czy zachowano równowagę między jednym punktem widzenia a innym? Jak wygląda prezentacja różnych punktów widzenia? Jeśli na stronie pokazano różne punkty widzenia, to warto się im przyjrzeć - to dodaje stronie wartości. Czy wiesz, co to jest propaganda i czy znajdujesz jej elementy na stronie? Aktualizacja:Jaka jest częstotliwość aktualizacji? Czy podano daty powstawania stron „od... do”, określenia: Last updated? Nie ufaj za bardzo datom pojawiającym się we właściwościach (Mozilla), ponieważ mogą być generowane automatycznie. Czy potwierdzasz adekwatność dat do zawartości treści, czy nie jest to informacja „zakurzona”? Kompletność i dokładność zasobów:Przyjrzyjmy się liczbie danych. Czy zaspakajają twoje potrzeby informacyjne? Czy istnieje związek między treściami a celami serwisu, może jakieś informacje traktowane są priorytetowo? Dlaczego? Jakie zastosowano kryteria przy doborze liczby danych? Czy są odesłania do innych stron; jak są zorganizowane? Czy linki działają? Czy są wartościowe? Poprawne zestawienia aktualnych linek świadczą o poważnym podejściu do tematu. Czy informacja jest dobrana do poziomu grupy docelowej? Spójność i forma:Zbadajmy wygląd i strukturę stron. Jak skonstruowana jest strona główna (domowa) - czy mieści się na jednym ekranie? Czy zachowana jest równowaga między formą a treścią? Zbadaj ilość tekstu i liczbę obrazków (nadmiar, niedomiar). Oceń profesjonalizm i oryginalność grafiki. Analizuj układ treści (działy, poddziały, sekcje). Oceń efekty multimedialne na stronie. Czy dostrzegasz uwypuklenie elementów istotnych (adres, pilny komunikat)? Jak wygląda redakcja tekstu i jego styl? Czy są błędy? Czy dostrzegasz logikę i klarowność stron, spójność wszystkich elementów. Dostępność i technika:Czy interfejs zakładanego użytkownika jest dostosowany do jego poziomu? Jaka jest wertowalność i nawigacja? Jak oceniasz interaktywność strony (nawiązywanie kontaktów: użytkownik - właściciel). Czy można ocenić jakość pracy serwera (szybkość, pojemność, niezawodność)? Czy są liczniki, statystyka? Czy zastosowano standardy software’u (bezkolizyjny dostęp do stron z różnych przeglądarek np. starych wersji)? Czy stosuje się najnowsze rozwiązania technologiczne do przekazywania informacji i poszerzania oferty (bazy danych, wyszukiwarki, programy pocztowe i inne)? Relewancja i użyteczność:Czy właściwie dobrano treści do potrzeb zakładanego użytkownika? Czy jest POMOC, HELP? Czy istnieje wersja angielska stron lub inne wersje językowe? Jak wygląda komunikacja z użytkownikiem? Czy strony dostosowano dla słabo widzących? Powyższe kryteria oceny mogą być modyfikowane, selekcjonowane i zmieniane, bowiem w świecie nowoczesnych technologii informacyjnych standardy ulegają zmianie w miarę rozwoju stosowanych technik. W innym czasie mamy inne potrzeby, odmienne podejścia do tego samego tematu. Zmienność i rozwój wpisane są w naturę informacji elektronicznej. Jednak najważniejsze z kryteriów, takie jak: autorstwo, aktualizacja, wiarygodność, poprawność powinny być brane pod uwagę zawsze, mają przecież odniesienia do tradycji. Obszary szczególnie ważne z punktu widzenia oceny jakości informacjiInternet wkroczył we wszystkie obszary naszego życia, także te najbardziej istotne z punktu widzenia człowieka, dlatego podejście do oceny jakości informacji powinno być szczególnie odpowiedzialne właśnie w tych newralgicznych punktach. Wszędzie tam, gdzie fałszywa, zła czy niepełna informacja może zagrozić człowiekowi, powinniśmy ingerować, nawet kodyfikując zasady związane z jej oceną i wykorzystaniem. Dotyczy to stron siejących nienawiść, nawołujących do aktów terrorystycznych czy związanych ze zdrowiem. Te ostatnie doczekały się bardzo obszernej literatury naukowej i oficjalnych zaleceń, które stają się standardami obowiązującymi w poszczególnych krajach. Komisja Europejska zatwierdziła przewodnik, w którym wyróżnia się następujące kryteria oceny stron dotyczących zdrowia:
Technologie informacyjne i ich wpływ na jakość informacjiInformacja elektroniczna (to także ogromna liczba bitów, którą trzeba przetwarzać) zależy w dużej mierze od rozwoju technologii: im lepsi są jej dostawcy, tym wyższa jakość informacji, szybkość jej przetwarzania, bezpieczeństwo przechowywania i szeroki wybór. Jak wielką wagę przykłada się dziś na świecie do technologii informatycznych, jaką pokłada się w nich nadzieję, widać chociażby na rynkach finansowych, na których nowe pokolenie optymistycznie inwestuje pieniądze. Na giełdach mamy indeksy[3] oparte o firmy technologiczne, spółki internetowe np. w USA NASDAQ notuje około 3200 spółek, wśród nich Intel Corp., Microsoft Corp. czy Apple Computer, Inc. W Polsce TECHWIG indeks obejmujący 45 spółek giełdowych zakwalifikowanych do innowacyjnych technologii, m.in. Prokom, ComputerLand, Interia, Optimus, TVN i inne. O tym znaczeniu nie trzeba nikogo przekonywać, wystarczy podać kilka przykładów źle zrobionego oprogramowania dla projektów rządowych, publicznych, wojskowych (komputeryzacja ZUS, PKO, Funduszy Zdrowotnych, włamania hakerów do serwerów militarnych, danych poufnych), by stwierdzić, że państwo pozbawione bezpiecznych, bezawaryjnych, efektywnych technologii nie jest w stanie sprawnie funkcjonować. Biznes, nauka, edukacja tym bardziej. Prestiż i sukces firm technologicznych zależy dziś w dużej mierze od jakości ich oprogramowania, które musi spełniać wszystkie standardy konieczne do efektywnego przetwarzania wielkiej, stale rosnącej, liczby danych (improving), kontroli jej poprawności i prawdziwości (control), zabezpieczenia danych (protection) oraz prezentacji ich w sposób zrozumiały dla końcowego odbiorcy (understanding)[4]. Technologie są także niebezpieczne. Źle rozumiane i źle użyte mogą przynieść wiele szkody. Ponieważ dziś nie wypada radzić ludziom, iż nie należy dać się zawładnąć technologiom, bo fakty są inne, to jednak możemy radzić, by nie pozbywali się rozumu, obcując z nimi. Przykładem technologii, która nami zawładnęła jest wyszukiwarka Google. Warto jednak wiedzieć, że googlomania, jeśli się jej poddamy bezkrytycznie, może nam czasem szkodzić, nie pomagać. Google jest najczęściej używaną wyszukiwarką na świecie i ma wiele zalet - szybkość i sprawność działania, niezawodność i wychodzenie naprzeciw potrzebom użytkowników. Jej usługa PageRank - porządkowania wyszukań - jest unikalna i nie na sprzedaż, opiera się o analizy:
Obok głównej usługi ogólnego (nie głębokiego) przeglądania sieci, mamy także jej modyfikacje czy wersje: Google Scholar i Google Books dedykowane tylko dla materiałów naukowych, które mają dać użytkownikom o bardziej wyrafinowanych potrzebach materiały recenzowane, unikatowe, trudniejsze w odbiorze, ale okazuje się, że mechanizmy wyszukiwania tych nowych narzędzi są bardzo złe. Nie są w stanie rozpoznać podstawowych elementów opisów bibliograficznych (np. rok publikacji) i dają błędne wyniki. Wielość usług powoduje także pojawianie się większej liczby błędów w oprogramowaniu, co jest krytykowane przez przeciwników tej wyszukiwarki. Google ma także inne słabości: za dużo widzi tzw. stop words, (6,700,000,000 dla zapytania the). Może się zdarzyć, że dostanie się rezultat wyszukań zupełnie nierelewantny do poszukiwań. Google pokaże strony nie dlatego, że są tam wyrażenia, które opisano, ale dlatego, że mają wysoką wartość rankingową w Google. Jedyny sposób, żeby sprawdzić, czy strona odpowiada potrzebom, to zajrzeć do Google cached copy[5]. Google także pokazuje za dużo wyszukań - nie da się ich wszystkich przejrzeć, często są to wypowiedzi z forów i blogów, które nie są nam potrzebne (tzw. szumy informacyjne). Oczywiście dla wielu fanów Internetu i antyglobalistów największą wadą Google jest to, że staje się monopolistą i że godzi się na cenzurę w Chinach. Konkurencja jednak nie śpi: Jimmy Wales, założyciel Wikipedii, planuje stworzenie nowej komercyjnej wyszukiwarki, która ma oferować znacznie lepsze wyniki wyszukiwania niż mechanizmy gigantów takich jak Google czy Yahoo. Cudowną bronią w walce o rynek wyszukiwarek ma być połączenie dobrego algorytmu z interwencją człowieka. (Dziennik Internautów, News 15504 - [27.12.2006]). Technologie wspomagające ocenę jakości informacjiSą technologie, które wspomagają ocenę jakości informacji i które skutecznie się wykorzystuje, by pokazać wartość stron, ich popularność lub błędy. Jedną z nich jest Alexa: http://www.alexa.com/ - jest to narzędzie zbudowane w roku 1996 wspomagające inteligentną nawigację po stronach WWW. Ma mechanizmy analizy strony, której adres http się podaje. Przegląda ruch na stronach, podaje liczbę wejść w ostatnich latach i miesiącach, „widzi”, kto wchodzi i skąd, podaje szybkość ładowania stron, liczbę podlinkowań do strony, recenzje (jeśli są) i inne dane, które pozwalają ocenić strony. Podaje także adresy kontaktowe do osób odpowiedzialnych za redagowanie stron. Ciekawą funkcjonalnością jest to, że potrafi wyszukać stare strony i informację historyczną na temat rozwoju witryny. Wykorzystuje do tego narzędzie WayBack Machine, które skanuje Internet i archiwizuje strony. Przykładowa analiza Alexy dla EBIB:
Elektroniczna Biblioteka nowy.ebib.info. Serwis informacyjny dla bibliotekarzy i specjalistów informacji. Analiza z końca marca 2007.
Reach for Ebib.info:
Traffic Rank for Ebib.info:
Page Views per user for Ebib.info:
* Daily values are not available for sites ranked outside of the Top 100K. Ebib.info users come from these countries: Where people go on Ebib.info: Alexa także na bieżąco pokazuje ranking stron z danej dziedziny czy kraju, np.: Top Sites Poland (ranking stron z domeny PL w dniu 2.04.07):
Innym przykładem technologii wspomagającej jest IE Inspector http://www.ieinspector.com/, który analizuje strony WWW pod kątem ich poprawności technicznej czy Web Page Analizer http://www.websiteoptimization.com/services/analyze/. Ten ostatni jest darmowy, można sprawdzić stronę WWW, czy nie zawiera błędów i jak jest zbudowana. Przykładowa analiza stron wygląda następująco: Analysis and Recommendations:
Kolejnym przykładem technologicznym, wspomagającym ocenę jakości informacji elektronicznej są programy anty-plagiatowe, które mają za zadanie sprawdzać oryginalność autorstwa. Stały się one w Polsce bardzo modne pod koniec lat 90., kiedy nastąpił boom edukacyjny i profesorowie uniwersytetów nie byli w stanie sprawdzić prac swoich magistrantów. Pojawiły się nadzieje, że technologia załatwi za edukatora wnikliwą merytoryczną analizę pracy i problem zostanie rozwiązany. Niestety programy anty-plagiatowe nie są w stanie rozpoznać wszystkich plagiatów, bo nie są w stanie analizować wszystkich formatów, języków, kodów, znaków, nie są także w stanie objąć swoją analizą takiej liczby obiektów, które mogą być ściągane z sieci. Niemniej jednak, jakaś część plagiatów jest przez nie wykrywana. Znaną w Polsce firmą, która produkuje oprogramowanie pod tą samą nazwą jest firma PLAGIAT.PL. Pułapki sieciInternet wraz ze wszystkimi swoimi zaletami wnosi w nasze życie także zjawiska niepokojące, niewłaściwe i wręcz przestępcze. Zagrożeń w sieci jest bardzo wiele, niektóre z nich mają już swoje nazwy i opisy:
Nieetyczne pozycjonowanie stron:
Falsyfikacja i mistyfikacjaZ punktu widzenia jakości informacji i wiedzy najpoważniejszym jednak zagrożeniem jest zamierzone, inteligentne kłamstwo i oszustwo. Sprawia ono najwięcej kłopotów - może pozostać niewykryte, może mieć poważne następstwa. Mistyfikacje czy fałszerstwa naukowe pojawiające się w Internecie, za które sieć „zbiera niezasłużone cięgi”, nie są czymś nowym, istniały zawsze. Znane są przykłady z historii nauki szeroko omawiane w przeszłości w czasopismach czy raportach naukowych:
Dzisiaj fałszowanie i mistyfikowanie informacji może ulec zwielokrotnieniu, ponieważ więcej osób ma dostęp do narzędzi komunikacyjnych i może współuczestniczyć w tworzeniu złej informacji. By uniknąć tych pułapek, trzeba zatem ciągle przypominać o tym, czym są: Miejska legenda (urban legend) - plotka, która ma znamiona poprawnej informacji, przekazywanej z ust do ust, często urasta do wielkiej legendy i opowieści. Z czasem staje się mitem, w który wierzymy.
Falsyfikacja - podrabianie czegoś, przedstawianie czegoś niezgodnie z prawdą. Fałszowanie rzeczywistości. Słynne były fałszywe wpisy do angielskiej Wikipedii:
Mistyfikacja - celowe wprowadzenie kogoś w błąd przez nadanie czemuś pozorów prawdy. Internet sprzyja takim zachowaniom. Przykłady, które każą nam dokładnie przyglądać się temu, co widzimy czy o czym czytamy:
Dużo trudniej jest walczyć z kłamstwem, fałszerstwem naukowym. Choć od lat przyjęte są standardy i opracowane metodologie badawcze, obowiązują zasady publikowania prac, oceny i recenzowania, to jednak nadal mamy do czynienia z plagiatami, negowaniem oczywistych faktów (kłamstwo oświęcimskie) czy osiągnięć nauki (ewolucja), podawaniem fałszywych osiągnięć naukowych i łamaniem zasad etyki uczonego. Powinniśmy wiedzieć o tym, że tradycyjne metody oceny takie jak: recenzowanie, sprawdzanie dorobku badawczego autora czy analiza stylu, przegląd cytowań są stale w użyciu. Przy ocenie treści ważnym kryterium jest metoda opisu badania. Uczony powinien tak opisać eksperyment, by inny uczony mógł go powtórzyć i sprawdzić. W przypadku wiedzy teoretycznej powinien podać ścieżkę dochodzenia do rezultatów, tak by była jasna i zrozumiała. Jeśli tego nie ma, należy być ostrożnym w ocenie zawartości treści. Do tradycyjnych metod dochodzą teraz nowe metody wspomagane przez technikę, a mimo to słynne są najnowsze fałszerstwa i mistyfikacje naukowe:
W nauce mamy do czynienia często z wiedzą nową, niezrozumiałą, kontrowersyjną, którą jest trudno ocenić także fachowcom. Specjalizacja jest tak duża, że uczeni nie rozumieją często prac swoich kolegów po fachu. Dlatego mistyfikacja Sokala mogła się udać. Recenzent być może uznał, że jest za głupi, żeby zrozumieć tak mądre wywody fizyka i puścił tekst do druku, narażając na szwank dobre imię czasopisma naukowego. Zapewne sprawdził autora i uznał, że jest na tyle wiarygodny, że wolno mu pisać trudne i kompletnie niezrozumiałe teksty. Istnieje także inne niebezpieczeństwo, które pojawiło się niedawno w sieci. Zaczęły powstawać automatycznie generowane prace naukowe. Oprogramowaniu trzeba dostarczyć „pokarm” czyli prawdziwe teksty, najlepiej z tej samej dziedziny. a ono samo wytworzy dowolną zbitkę. To tworzenie podróbek (bogus papers) traktuje się jak dobrą zabawę, ale dla tych, którzy muszą z takimi materiałami walczyć, jest to mało zabawne. Nie potrafią sobie z tym zjawiskiem poradzić nie tylko organizatorzy konferencji, ale i bibliotekarze zarządzający repozytoriami otwartymi. Przykładem takiego oprogramowania jest SCIgen - An Automatic CS Paper Generator - http://pdos.csail.mit.edu/scigen/ opracowany przez studentów z MIT w USA (Jeremy Stribling, Max Kron, Dan Aguayo). Użyli oni tego oprogramowania, żeby wyprodukować artykuł na konferencję The 9th World Multi-Conference on Systemics, Cybernetics and Informatics July 10-13, 2005 - Orlando, Florida, USA i przepchnąć go przez system oceny i akceptowania komitetu organizacyjnego[8]. Oczywiście studenci opisali po fakcie całą operację, co niekoniecznie musi wpłynąć pozytywnie na obieg informacji naukowej, wręcz przeciwnie. Po takich wpadkach myślenie charakterystyczne dla wielu z nas - polegające na tym, iż uważamy, że tylko recenzowane czasopisma naukowe mają wartość - zostaje zachwiane. Jedyna nauka płynąca z tego doświadczenia jest taka, że ważne jest bardzo krytyczne podejście do tego, co czytamy i nie ma znaczenia, czy postać dokumentu jest elektroniczna czy tradycyjnie drukowana na papierze. Jeśli mamy do czynienia z bełkotem, to nie bójmy się go nazwać po imieniu. KonkluzjaLiczba dokumentów elektronicznych nie ulegnie zmniejszeniu, falsyfikatów i źle opracowanych informacji przybędzie. Zawartość sieci spęcznieje tak, że wartość krytycznego podejścia do źródeł informacji elektronicznych będzie w cenie. Dla specjalistów informacji, infobrokerów, analityków, recenzentów, ekspertów sieci, oznaczać to będzie z pewnością dużo pracy. Ta wiedza i doświadczenie, jakiego nabywamy codziennie, działając w obszarze nowoczesnej komunikacji i informacji, przyniesie korzyści nie tylko nam, ale i zagubionym w sieci użytkownikom, dla których pracujemy. Zatem bądźmy uważnymi obserwatorami przemian i stale czuwajmy nad jakością tego, co czytamy, polecamy, tworzymy. W świecie trollingu, spamowania, kłamstw, mistyfikacji, propagandy zostańmy netokracją - arystokracją słowa! Przypisy[1] MILLER, Holmes. The multiple dimensions of information quality. Information System Management. 1996, vol. 13, nr 2, s. 79. [2] Commission of the European Communities, Brussels, 29.11.2002, COM(2002) 667 final, Communication from the Commission to the Council, The European Parliament, The Economic and Social Committee and the Committee of the Regions: eEurope 2002: Quality Criteria for Health related Websites [on-line]. [dostęp 24 marca 2007]. Dostępny w World Wide Web: http://ec.europa.eu/information_society/eeurope/ehealth/quality/index_en.htm. [3] Indeks giełdowy - wartość obliczona na podstawie wyceny akcji wybranych spółek giełdowych. Umożliwia syntetyczne przedstawienie koniunktury na giełdzie lub stanu jakiegoś sektora spółek. In Wikipedia. Wolna Encyklopedia [on-line]. [dostęp 21 marca 2007.]. Dostępny w World Wide Web: http://pl.wikipedia.org/wiki/Indeks_gie%C5%82dowy). [4] MASCOTT, Laurie. Ensuring the quality information.., KM Review 2006, vol. 8, nr 6. [5] Cached copy - ostatni skan, zdjęcie strony WWW, które Google odwiedziła i zapisała. Pozwala to użytkownikom wejść na stronę wówczas, kiedy z jakichś powodów serwer nie odpowiada. Trzeba pamiętać o tym, że zawartość takiej strony może nieco różnić się od obecnej. Na liście wyszukań Google wejście do kopii znajduje się zaraz po adresie http. [6] Wikipedia. Wolna Encyklopedia [on-line]. [dostęp 20 marca 2007]. Dostępny w World Wide Web: http://pl.wikipedia.org. [7] SOKAL, Alan. Transgressing the boundaries: towards a transformative hermeneutics of quantum gravity. Social Text 1996, nr 46/47, s. 217-252. [8] CALLAOS, Nagib. With regards to the bogus papers submitted to WMSCI 2005 [on-line]. [dostęp 2 kwietnia 2007]. Dostępny w World Wide Web: http://www.iiisci.org/sci2005/website/regards.asp. Literatura:
Artykuł był drukowany w materiałach konferencyjnych XI seminarium z cyklu Digitalizacja zasobów informacyjnych "W poszukiwaniu cyfrowych informacji", Warszawa, Centrum Promocji Informatyki, 17 stycznia 2007. |
| |||