ebib 
Nr 7/2007 (88), Bogactwo sieci. Artykuł
 poprzedni artykuł następny artykuł   

 


Wiesława Osińska
Instytut Informacji Naukowej i Bibliologii UMK

Dynamika historycznego rozwoju stron www




Obserwując ogromną różnorodność witryn WWW pod względem: architektury, zawartości, stylu, kolorystyki należałoby spróbować je usystematyzować w odniesieniu do istotnych procesów w historii rozwoju technologii informacyjno-komunikacyjnych. Te wyodrębnione prototypy stron nazywane są generacjami ze względu na omówienie ewolucji poszczególnych cech z upływem czasu. Na niektórych etapach prezentowana hierarchia może wydawać się dyskusyjna, szczególnie zaczynając od roku 2000, kiedy nowe technologie rozwijały się szczególnie dynamicznie. W tych przypadkach kierowałam się w swojej ocenie własnym doświadczeniem zawodowym jako osoby wykorzystującej komputery osobiste od roku 1990. Z drugiej strony, lokalizacja punktu obserwacji w Polsce dla poniższych zależności wytłumaczy opóźnienia procesów implementacji nowych technologii względem np. Stanów Zjednoczonych, gdzie chronologia skrupulatnie jest notowana w licznych źródłach w sieci[1][2][3]. W szczególności chodzi o okres przed rokiem 2000.

Każdą generację scharakteryzuję pod względem ówczesnych preferowanych technologii    dominujących reguł projektowania    witryn oraz używanych wtedy narzędzi  , a także użytkowników z obu stron  : zarówno twórców tak i odbiorców. Spróbuję również uzasadnić powstanie danej tendencji korzystając z analizy różnych aspektów życia społecznego. Opisywane trendy w technologiach projektowania witryn internetowych powstawały i rozwijały się niezależnie od siebie dlatego obok nazw podaję rok, w którym one zaistniały w sieci. Generacje nowych rozwiązań sprzętowych, np. procesorów Pentium D4 i Core Duo również są eksploatowane równolegle przez użytkowników o zróżnicowanych potrzebach i zasobach finansowych.

Zwięzła historia sieci WWW jest opisana na stronie konsorcjum W3C, którego prezydentem jest Tim Berners Lee, pomysłodawca najpopularniejszej usługi internetowej i języka HTML, jako standardu publikacji sieciowych. Należy tutaj nadmienić, iż pierwsza koncepcja hipertekstu powstała pół wieku wcześniej. Ogólnoświatowy projekt T. B. Lee Information Management: A Proposal, który jest historycznym dokumentem i można go znaleźć w sieci[4], był napisany w 1989 roku z myślą o wymianie danych pomiarowych i informacji naukowej pomiędzy fizykami jądrowymi w CERN i innymi ośrodkami naukowymi. Pierwotna nazwa projektu brzmiała Information Mine ( kopanie informacji ang.) - termin ten dzisiaj nabrał głębszego znaczenia poprzez powstanie nowej dziedziny w naukach komputerowych: DataMining. T. B. Lee opracował również swój pierwszy serwer HTTPD i aplikację kliencką o nazwie WWW - pierwszą przeglądarkę pod środowisko komputera NeXT. Pod adresem http://www.w3.org/History/1994/WWW/Journals/CACM/screensnap2_24c.gif można obejrzeć jak wyglądał ten prototyp przeglądarek internetowych.

I. Strony tekstowe 1990-1994

Pierwsze przeglądarki tworzone były pod systemy operacyjne Unix, MacOS i DOS: Mosaic (do X-Windows), Samba (1992), Lynx (1993) pracowały w trybie tekstowym, a zatem udostępniane dokumenty zawierały tekst i gąszcz odnośników. W systemach Linuxowych polecenie "lynx" uruchamia przeglądarkę Lynx (skrót ekranowy pod adresem: http://en.wikipedia.org/wiki/Image:Lynx-wikipedia.png). Szybkie rozpowszechnienie sieci WWW wyparło swego tekstowego prekursora z roku 1991 - system informacyjny Gopher, który w przejrzysty i naturalny sposób udostępniał najróżniejsze zasoby i usługi (już wtedy FTP) w sieci.


Technologie
SGML (Standard Generalized Mark-up Language), HTML, HTML+

Reguły projektowania
Tekst oraz hiperłącza, struktury katalogów, grafika o niskiej rozdzielczości, uwarunkowana monitorami monochromatycznymi, dla rozbicia jednolitego tekstu używano jedynie list punktowanych i numerowanych i linii poziomych. Nagłówki z reguły są wyśrodkowane w wierszu, tekst i obrazki wyrównane do lewej krawędzi.

Narzędzia
Edytory tekstowe w systemach Unix, MacOs, DOS/Windows, pierwsze wersje edytorów WYSIWIG

Użytkownicy
Naukowcy, studenci, bibliotekarze

Kolejną osobą, która przyczyniła się do popularyzacji WWW na przełomie 1993-1994 był student University of Illinois' National Center for Supercomputer Applications (NCSA) Marc Andreessen - współtwórca pierwszej przeglądarki graficznej Mosaic, która była wykorzystywana w skali globalnej. W ciągu roku Mosaic przyciągnęła 2 mln użytkowników. Na sieciowej liście dyskusyjnej o problemach wczesnych przeglądarek WWW-talk Adreessen wystąpił z pomysłem zastosowania nowego znacznika do osadzania na stronach plików graficznych IMG. Marc z kolegami z NCSA założyli grupę Mosaic Communication Corp., która została później przemianowana na popularny Netscape.

osinska1 (17K)

II. Strony multimedialne (od 1995)

W końcu 1994 roku Netscape opracował pierwszą komercyjną wersję przeglądarki Mozilla (Netscape Navigator), aby za 10 lat powrócić do dystrybucji darmowej - Open Source - przeglądarki pod nazwą FireFox. Do dzisiaj głównym konkurentem dla przeglądarek Netscape staje się Internet Explorer, aplikacja włączona w system operacyjny Windows do wersji 1995. Microsoft wprowadził własne elementy HTML, np. kontrolki Active X do uruchomienia programów. Rozbieżności w odtwarzaniu stron przez te dwie przeglądarki utrzymują się do dziś,czego świadomi są projektanci stron WWW.

W sieci w tym okresie pojawiają się zarówno witryny osobiste, jak i oficjalne strony większych firm i instytucji, które zdążyły już docenić zalety korespondencji e-mailowej oraz zauważyły rosnącą dynamicznie społeczność Internetu - potencjalnych klientów. Ta generacja stron bardzo różni się od poprzedniej: kolorowa zawartość, ruszające się obrazki, udźwiękowienie strony. Prymitywne kształty graficzne próbuje się obracać w przestrzeni, używając języka wizualizacji 3D - VRML (Virtual Reality Modeling Language).


Technologie
HTML, VRML, Flash (   1998), aplety Java

Reguły projektowania
Mniej tekstu, więcej obrazków, osadzanie dźwięków, animacje klatkowe (GIF) oraz animacje wektorowe (Flash). Dla stron charakterystyczne: ikonki zamiast tekstu, przyciski zamiast hiperłączy, tapety jako tło. Używanie tabel w celu umiejscowienia grafiki w dowolnym miejscu strony. Nagminnie korzysta się z niezależnie przewijanych stron-ramek generowanych za pomocą znaczników . Charakterystycznym motywem było wyeksponowanie adresu e-mail w postaci obracającej się ikonki w widocznym miejscu.

Narzędzia
Notatnik, MS Word i inne edytory tekstu, środowisko Flash, Dreamweaver, MS FrontPage

Użytkownicy
Uczelnie, szkoły, instytucje, firmy, domowi użytkownicy.

Prawdziwą rewolucję w jakości animacji zapoczątkował Flash - produkt firmy Macromedia (od 1997, w Polsce rozpowszechnił się rok później), obecnie rozwijany przez Adobe, który służy do tworzenia płynnych animacji wektorowych, opartych o klatki kluczowe. Na pierwszym etapie stosowania nowej technologii, witryny WWW długo się ładowały, co przyczyniło się do irytacji użytkowników. Te opóźnienia spowodowane były głównie dużymi rozmiarami grafik oraz małą wydajnością ówczesnych wersji formatów multimedialnych. W późniejszych wersjach Flash zostaje opracowany skryptowy język programowania ActionScript niezbędny w zadaniach optymalizacji i sterowania aplikacją, bardzo przypominający składnię JavaScript.

Z chwilą pojawienia się na rynku muzycznym formatu MP3 strony WWW przestają być nieme. Odtąd użytkowników raczej dręczą odgłosy: uruchomienie odtwarzania muzyki następuje bez pytania użytkownika o zgodę. Od 2000 roku na portalach firm telekomunikacyjnych wykorzystywane są media strumieniowe - technologia pozwalająca odbierać z sieci dane multimedialne w czasie rzeczywistym bez potrzeby "ściągania" całego pliku. W tradycyjnych plikach multimedialnych jego zawartość może być odtwarzana dopiero po całkowitym pobraniu takiego pliku na dysk twardy komputera, natomiast treść nadawana strumieniowo pojawia się niemalże natychmiast po nawiązaniu połączenia. Tą metodą udostępnia się na stronach programy radiowe, dzienniki telewizyjne, fragmenty piosenek i filmów, reklamy premier filmowych, itp. W ten sposób skraca się czas oczekiwania, a również unika się problemów z prawami autorskimi przesyłanych utworów.

III. Strony interaktywne (od 1996)

Zauważono, iż komunikacja z użytkownikami via e-mail przestała być zadowalająca dla obu stron. Narodziło się zapotrzebowanie na automatyczne przeformatowywanie wysyłanych przez klientów danych oraz podawanie aktualnych informacji na stronach przeglądarki. Taką komunikację pomiędzy serwerem WWW a przeglądarką w początkowej fazie generacji interaktywnych stron zapewniono za pomocą skryptów CGI (Common Gateway Interface), pisanych w językach programowania C, oraz Perl - projektu OpenSource z najdłuższym stażem. Sprawdzenie poprawności formularzy przed ich wysłaniem należało do zadań skryptów w języku obiektowego programowania JavaScript.

Kolejnym etapem dla programistów WWW było pojawienie się takiej technologii jak PHP: aplikacje w skryptowym języku programowania wykonywane po stronie serwera. Darmowe narzędzie w środowisku Linux, w połączeniu z serwerem baz danych MySQL rozpowszechniało się w Polsce od 2000 roku, poprzez szybkość, łatwość i bezpieczeństwo. Jeśli CGI używano głównie do przetwarzania danych klientów, to PHP zdobyło uznanie użytkowników przede wszystkim dla dużych możliwości aktualizowania na bieżąco informacji na stronach. Witryny na żądanie użytkowników generowały listy rekordów baz danych, słupkowe wykresy wyników głosowania, wpisy do ksiąg gości oraz wyświetlały posty forów dyskusyjnych. Takie strony określało się jako dynamiczne: zmieniały swoją treść on-line.


Technologie
Skrypty CGI, Perl; JavaScript(   1999), PHP (   2000), MySQL, ASP

Reguły projektowania
Proste formularze do wysyłania danych obsługiwane są po stronie serwera przez skrypty CGI, nimi również posługuje się przy tworzeniu liczników odwiedzających. Skrypty JavaScript służą do sprawdzania poprawności formularzy, wykonywane są po stronie klienta. W miarę modernizacji kolejnych, coraz bardziej wydajnych wersji PHP, na stronach umieszcza się: ankiety, rankingi, głosowania, księgi gości, fora dyskusyjne, statystyki odwiedzin.

Narzędzia
Notatnik, edytory przystosowane do edycji Perl, PHP.

Użytkownicy
Korporacje, politycy, uczelnie, wydawnictwa, instytucje, domowi użytkownicy.

Komercyjna, a więc wcale nie konkurencyjna technologia ASP, była opracowywana równolegle przez firmę Microsoft. Rozpowszechniła się raczej w USA, gdzie spora cześć serwerów WWW jest oparta o Windows.

IV. Strony dynamiczne (od 1998,    2000)

Kolejnym etapem w ewolucji technologii WWW było zapotrzebowanie użytkowników na efekty dynamiczne. Strony statyczne już nie były tak funkcjonalne i atrakcyjne w odbiorze jak w pierwszej połowie lat 90-tych. Skrypty JavaScript pomagają uatrakcyjnić elementy nawigacyjne strony, służą najczęściej do zapewnienia interaktywności poprzez reagowanie na zdarzenia lub sprawdzania poprawności formularzy. Dwie główne przeglądarki prześcigały się w zapewnieniu dynamicznych zmiany treści i efektów wizualnych oraz interakcji z użytkownikiem.

Netscape w 1997 roku wprowadził grupę technik pod nazwą DHTML ( Dynamic HyperText Markup Language), które opierały się na obiektowym modelu dokumentu DOM oraz kaskadowych arkuszach stylów (poniżej). Niestety, lista zalet DHTML jest za krótka (warstwy, filtry, rendering), aby na stale zadomowić się na stronach. Microsoft również wprowadził obsługę DHTML do Internet Explorera. Dla tego okresu charakterystyczny jest brak kompatybilności pomiędzy IE i Netscape Navigatorem oraz wymuszanie na użytkownikach ciągłego uaktualnienia wersji tych przeglądarek, co było dla nich uciążliwe.

Duży wkład w rozwój dynamiczności witryn WWW wniosły aplety Java. Aplety były i są wykorzystywane głównie do tworzenia efektów graficznych wzbogacających wystrój stron WWW, np. animacji, do interaktywnych prezentacji i symulacji zjawisk przyrodniczych w celach edukacyjnych.


Technologie
JavaScript, aplety Java (    od 1996), Flash (    1998), DHTML(DOM, CSS), PHP

Reguły projektowania
Płynne efekty przejść implementowane są w tekście i grafice. Wzrok użytkownika zatrzymuje się na ruchomych elementach strony. Pierwsze programy JavaScript są długie i spowalniają przeładowanie strony. Używane są często do sprawdzenia poprawności danych w wysyłanych formularzach. Charakterystyczne jest poszukiwanie atrakcyjnych i wydajnych form rozwijanego Menu. Częste jest używanie przewijanych napisów, które generuje się za pomocą znacznika <MARQUEE>

Narzędzia
Notatnik, MS Word i edytory tekstowe, edytory CSS.

Użytkownicy
Korporacje, politycy, uczelnie, wydawnictwa, szkoły, instytucje, domowi użytkownicy.



V. Strony wystylizowane (   od 1998)

W końcu lat 90-tych obserwuje się gwałtowny rozrost sieci WWW i całego zestawu powiązanych usług, które mocno rozwijają się w kierunku komercjalizacji. Za profesjonalne projektowanie stron zabierają się graficy i specjaliści DTP. Język HTML jest za mało elastyczny, aby zapewnić funkcjonalne rozmieszczenie tekstu i grafiki w dokumentach WWW. W tym celu opracowana została w roku 1996 przez konsorcjum W3C technologia kaskadowych arkuszy stylów CSS ( Cascading Style Sheets), służąca do opisu sposobu prezentacji składowych stron WWW. A są to: rodzina czcionek, kolor tekstu, marginesy, odstęp międzywierszowy, pozycja danego elementu względem innych elementów bądź okna przeglądarki, obramowanie grafiki, itp. Podążając drogą promowania CSS, konsorcjum W3C w celu ujednolicenia standardu opublikowało czwartą specyfikację HTML w roku 1998. Przeglądarki internetowe przez długi czas były pozbawione obsługi arkuszy stylów, przez co ta technologia rozwijała się wolno. Natomiast do dzisiaj pozostaje jednym z podstawowych i przyjaznych narzędzi webmasterów.


Technologie
CSS, wersja HTML 4.0 i późniejsze

Reguły projektowania
W górnej część strony głównej umieszcza się przemyślnie dopracowaną winietę, poniżej - baner reklamowy. Tabelki oraz elementy graficzne mają zaokrąglone krawędzie. Czcionkę i kolor tekstu starannie się dobiera, aby była estetyczna i czytelna. Zaadoptowany zostaje format graficzny bezstratnej kompresji PNG. Elementy animowane nie są głównym czynnikiem przyciągającym uwagę użytkownika.

Narzędzia
MS Word i edytory tekstu, pierwsze szablony, edytory CSS, środowiska programów graficznych.

Użytkownicy
Firmy reklamowe, konsumenci, urzędy, uczelnie, szkoły, instytucje, domowi użytkownicy.



VI. Strony ustrukturalizowane (   od 2001)

Poruszanie się w sieci internetowej przypomina błądzenie w nieuporządkowanym gąszczu danych. Systemy informacyjne nie są w stanie wymieniać się dokumentami o tak różnorodnych formatach i strukturze, również nie potrafią automatycznie kategoryzować tych dokumentów. Zaistniała potrzeba oddzielania struktury od treści dokumentu. W roku 1996 W3C opracowuje na podstawie SGML w język XML (Extensible Markup Language) do reprezentowania różnych danych w ustrukturalizowany sposób. Technologia XML powstała z perspektywy potrzeb automatycznego przetwarzania danych przez maszyny (machine-understandable) i komunikacji pomiędzy maszynami bez udziału człowieka. Taką reprezentację danych postuluje projekt Web Semantyczny ogłoszony od 2001 roku w wizji T. B. Lee. Służyć mają temu rozwiązania odpowiedniego opisu danych, tzw. metadane. Językiem opisu danych spełniającym te wymagania jest RDF (Resource Description Framework). Jak na razie mały procent użytkowników Internetu posługuje się XML.

Należy tutaj nadmienić, iż w opisie treści sprawdziły się meta znaczniki umieszczane w nagłówkowej sekcji dokumentu. Opisują one takie cechy stron WWW jak: imię i nazwisko autora strony, datę powstania strony, sposób kodowanie strony, słowa kluczowe, opis, itp. W erze wyszukiwarek internetowych autorzy stron mają zadbać o to, aby została ona zauważona przez roboty (boty) indeksujące - do tego celu służy atrybut znacznikowy robots.


Technologie
MetaTag, XML (CSS), XHTML, RDF

Reguły projektowania
Poniższe szczegóły dotyczą kodu źródła: zagnieżdżenie struktury, używanie arkuszy stylów do czytelnego wyświetlania zawartości, użycie znaczników DIV do budowania drzewa dokumentu.

Narzędzia
Edytory tekstowe, edytory XML, RDF.

Użytkownicy
Naukowcy, inżynierowie, pasjonaci.



VII. Strony adaptacyjne (   od 2002)

W pierwszym pięcioleciu XXI wieku utrwala się pozycja e-commerce oraz e-biznes. Firmy są nastawione na poszukiwanie w sieci potencjalnych klientów. Wyniki badań ze sfer zachowań społecznych psychologii klienta i PR (Public Relations) są uwzględniane przy projektowaniu portali i serwisów internetowych. W sieci można znaleźć mnóstwo poradników na temat zasad projektowania profesjonalnych witryn np. w jakim kierunku najlepiej układać elementy, jakich kolorów użyć w danym zadaniu, jaki zastosować rytm i motyw, itp. Mnożą się w sieci programy o podobnym przeznaczeniu: generatory palet kolorów, generatory czcionek, tapet, gotowe szablony. Aby dalej zwabiać użytkownika firmy wykorzystują techniki DataMining. Służą one do rozpoznawania zainteresowań użytkownika i generowania zawartości strony według danych preferencji - przykładem jest serwis Google.


Technologie
PHP - MySQL, HTML

Reguły projektowania
Strony są przyjemne w odbiorze, czytelne, o stonowanej kolorystyce. Najczęściej są to tabele, których komórki mają kolory w zbliżonej tonacji. Istnieje też specyficzna tendencja dla danej grupy: minimalizacja treści na głównej stronie nadrabiając to elementami graficznymi, animowanymi lub … pustą przestrzenią! Wszystko po to, aby zaintrygować odwiedzających.

Narzędzia
Edytory PHP, środowiska Flash, programów graficznych.

Użytkownicy
Koncerny, instytucje, firmy, uczniowie, użytkownicy domowi.



IX. Strony CMS (   od 2003)

Dla administratorów serwisów WWW ogromnie pomocnym narzędziem stał się CMS (Content Management System) - system zarządzania treścią. Jest to aplikacja sieciowa typu OpenSource, najczęściej napisana w języku PHP, pozwalająca na łatwe utworzenie oraz późniejszą aktualizację i rozbudowę stron internetowych serwisu. Wypełnienie treści i kształtowanie sposobu prezentacji odbywa się za pomocą modułów - elementów składowych interfejsów użytkownika. Ideą takiego systemu była łatwość w obsłudze oraz szybkość, przez co nawet początkujący użytkownik jest w stanie edytować strony WWW o zadanej konfiguracji. Do popularnych w Polsce platform CMS należą: Joomla!, Mambo, PHP-Nuke.


Technologie
CMS, PHP

Reguły projektowania
Strony zawierają dużo interesujących informacji dla użytkowników, umożliwiają przeszukiwanie własnych zasobów (przycisk "Szukaj", "Znajdź"), zalecają do subskrypcji biuletynów, wzięcia udziału w ankiecie, forach dyskusyjnych. Charakterystycznym elementem są liczniki odwiedzin, kanały RSS i mapa strony. W sieci dostępne są gotowe szablony modułów i składowych systemów CMS.

Narzędzia
Środowisko CMS, edytor PHP.

Użytkownicy
Uczelnie, wydawnictwa elektroniczne, firmy, studenci, szkoły.



X. Strony osobiste (od 2004)

Strony prywatne tworzone były przez użytkowników od samego początku rozwoju Internetu. Autorzy podawali na nich takie informacje jak: e-mail, krótki życiorys, zainteresowania, ulubione serwisy, itd. Lecz w okresie rozwoju mediów cyfrowych i ogólnej dostępności kamer, aparatów cyfrowych i telefonów komórkowych strony stały się bardzo osobiste. Fakt swoistego "ekshibicjonizmu" jest raczej akceptowany przez społeczność internetową, nie widać chęci powrotu do netykiety lat 90-tych. Tanie aparaty cyfrowe pozwalają każdemu przekonać się o własnych predyspozycjach percepcyjnych i zdolnościach artystycznych, a darmowe narzędzia informatyczne - stworzyć niepowtarzalną galerię zdjęć. Od czasu rozpowszechnienia kamer internetowych i telefonów komórkowych modne jest nagrywanie krótkich klipów wideo i umieszczanie ich na stronie lub wysyłanie na popularne i ogólnodostępne toplisty (np. YouTube). Od 3 lat internauci upodobali sobie blogi - pamiętniki internetowe prowadzone on-line. Blogi zakładają nie tylko młodzi ludzie, ale także aktorzy, artyści oraz politycy (np. słynny blog posła Czarneckiego). Blogi są chętnie czytane przez odwiedzających strony. Umieszczenie takich zwierzeń osobistych na portalach traktowane jest jako pewnego rodzaju polityka marketingowa. Kolejnym etapem jest "obrazkowanie" wydarzeń, czyli rysowanie komiksów, co ma jeszcze bardziej ułatwiać odbiór witryny. Nowoczesne cyfrowe techniki graficzne i multimedialne, sprzyjają takim odważnym próbom ilustrowania różnorodnej tematyki przez grafików-amatorów.


Technologie
Narzędzia głównie darmowe: HTML, PHP, CMS.

Reguły projektowania
Strony są tak różnorodne, że nie da się określić prototypu grupy.

Narzędzia
Różnorodne edytory darmowe.

Użytkownicy
Użytkownicy prywatni.



XI. Strony nowoczesne i strony przyszłości

W rozwiązaniach topologii i stylu nowoczesnych witryn dominują prostota i powściągliwość w używaniu form multimedialnych. Wszystko z myślą o użytkowniku, którą można określić następująco: "każda technologia jest dobra, byleby nie nużąca w odbiorze". Na przykładzie wyglądu stron wyszukiwarki Google widzimy, jak wydajny może być serwis mimo skromnego interfejsu. Projektanci z reguły wybierają białe tło, jako najbardziej optymalne. Strony z tapetą o wyraźnych, powtarzających się motywach wyglądają już jak okazy reliktowe.

Podstawowym aktualnie celem dla projektantów nowoczesnych portali internetowych jest funkcjonalność. Na to hasło specjaliści od marketingu internetowego debatują, próbując rozwiązać liczne problemy: gdzie powinno się umieścić logotyp, a gdzie treść zasadniczą, jakie dobrać paski nawigacyjne, itp. Tematem dyskusji są również warunki przydatności mapy strony, kanałów informacyjnych, szczegółowych statystyk.

Niemniej jednak funkcjonalność powinna kojarzyć się nie tylko z użytecznością topologii serwisu, lecz i z efektywnością kodu strony. W takim celu na stronach umieszcza się linki do walidatorów sieciowych - programów komputerowych, sprawdzających poprawność syntaktyczną kodów dokumentów HTML, CSS i XML. Niebagatelnym problemem współczesnego Webu jest ochrona praw autorskich elementów, które wykorzystuje się na stronie. Aby nie ograniczyć dostępu do przestrzeni publicznej autorzy coraz częściej zamiast restrykcyjnej formuły All Rights Reserved wybierają coraz popularniejszy, otwarty projekt ochrony własności intelektualnych Creative Commons http://creativecommons.pl/. Dlatego twórcy na swoich stronach umieszczają przycisk Some rigth reserved; natomiast kontrastowa tendencja - wklejanie jako przycisków logo firm sponsorujących, jest obecnie z opisanych przyczyn krytykowana.



Rozwój technologii internetowych jest niezwykle dynamiczny i przez to trudny do przewidzenia, możemy jednak zwrócić uwagę na dominujące teraz nurty, które rokują ich dalsze rozpowszechnianie i rozwój w najbliższych latach.

Da się zauważyć, że obecnie modne jest stosowanie przezroczystości w różnych postaciach. Na portalach informacyjnych użytkownika bombarduje się oknami reklam na przezroczystym tle, przez co trudno zlokalizować przycisk "zamknij". Nowy system operacyjny Vista - to magia przezroczystych okien. Office 2007 pozbył się menu rozwijanego na rzecz półprzezroczystej wstęgi zadań. Za to wszystko płacimy czekaniem na ładowanie grafiki. Ale podstawowym kontrargumentem projektantów oprogramowania jest zachęta do kupna nowego, bardziej nowoczesnego sprzętu - czyli w tym wypadku kart graficznych realizujących funkcję przezroczystości sprzętowo.

Monitory LCD zapoczątkowały trend projektowy w postaci cienkich delikatnych linii granicznych pomiędzy elementami strony. Interfejsy Linuxa i aplikacji linuksowych, które charakteryzują się subtelną grafiką środowiska o miękkiej tonalności (Microsoft jak zwykle "zaadaptował" tę cechę w Vista) przyczynił się do rozpowszechnienia formatu plików graficznych PNG. Można również spodziewać się wyraźnego rozpowszechnienia technologii SVG - opisu grafiki wektorowej o licznych zaletach: dobra jakość, obsługa warstw, przezroczystość, małe rozmiary plików.

Pewien procent użytkowników Internetu stanowią osoby niepełnosprawne. Z myślą o nich i "rozleniwionych" użytkownikach zmieni się sposób zagospodarowania przestrzeni ze struktur prostokątnych w ogniskowe (np. punkty), w których skoncentrują się elementy nawigacyjne. Niebawem wejdzie do użytku technologia LEP[5], ekrany będą elastyczne, tak jak papierowe arkusze. Strony WWW na pewno zmienią swój kształt, być może będą to wstęgi, kule lub "pofałdowane" trójwymiarowe powierzchnie. Strony przyszłości powinny być przede wszystkim wartościowe pod względem użyteczności zawartej treści. W praktyce umiejętnego korzystania z zasobów sieciowych, rola analizy jakościowej informacji elektronicznej jest kluczowa[6]. Przydałyby się automaty, potrafiące zdyskwalifikować strony z informacją o nikłej jakości. Era eliminacji szumu informacyjnego nadejdzie, kiedy stworzymy komputery, rozumiejące i interpretujące tekst bez udziału człowieka.

Na końcu chciałabym dodać, iż w tej kilkunastoletniej historii sieci Web ważne jest uświadomienie użytkownikom jak dynamiczna, różnorodna i jednocześnie tradycyjna pozostaje przestrzeń WWW. Nie ma czystych instancji prototypów wymienionych grup. Wszystkie projekty w sieci, szczególnie powstałe w wieku XXI, są zlepkami i kombinacjami opisanych funkcji. Widać, jakie trendy były przez użytkowników preferowane, jakimi szlakami rozwijała się historia technologii sieciowych. Cała społeczność Internetu powinna wspólnie przystąpić do notowania chronologii i analizy systematyki stron sieciowych. Na równi z dbaniem o nowoczesne formy graficzne i techniczne projektów zadaniem zarówno jednostek, jak i instytucji będzie indeksacyjna archiwizacja wszystkich wersji witryn dla poszczególnych serwisów.



Przypisy

[1] CONNOLY, D. A Little History of World Wide Web [on-line]. [dostęp 4 lipca 2007]. Dostępny w World Wide Web: http://www.w3.org/History.html.

[2] LONGMAN, A.W. A History of HTML. In W3C [on-line], 1998 [dostęp 20 czerwca 2007]. Dostępny w World Wide Web: http://www.w3.org/People/Raggett/book4/ch02.html.

[3] REED, J. History of Web Design [on-line]. [dostęp 19 czerwca 2007]. Dostępny w World Wide Web: http://cis2.cuyamaca.net/jreedfp/.

[4] BERNERS-LEE, T. Information Management: A Proposal. In W3C [on-line], data aktualizacji 1989 (May) [dostęp 24 czerwca 2007]. Dostępny w World Wide Web: http://www.w3.org/History/1989/proposal.html.

[5] LEP (Light Emitting Polymers) - technologia polimerów elektroluminescencyjnych.

[6] BEDNAREK-MICHALSKA, B. Ocena jakości informacji elektronicznej. Pułapki sieci. In Biuletyn EBIB [on-line]. 2007 nr 5 (86) [dostęp 9 lipca 2007]. Dostępny w World Wide Web: http://www.ebib.info/2007/86/a.php?bednarek. ISSN 1507-7187.

Bibliografia

  1. BUTOW, E. User Interface Design for Mere Mortals (TM). Pearson Education, Inc. 2007. ISBN 0-321-44773-5.
  2. CONARY, H. Top 7 Trends is Online AdDesign. In Sitepoint [on-line], 2004 (October) [dostęp 6 lipca 2007]. Dostępny w World Wide Web: http://www.sitepoint.com/article/top-trends-online-ad-design.
  3. McCLURG-GENEVESE, J.D. Design in Theory and Practice. In Digital WEB Magazine [on-line], 2006 (November) [dostęp 10 lipca 2007]. Dostępny w World Wide Web: http://www.digital-web.com/types/design_in_theory_and_practice/.
  4. NIELSEN, J. TAHIR, M. Funkcjonalność stron WWW. 50 witryn bez sekretów. Gliwice: Helion, 2006. ISBN 83-246-0126-0.
 Początek strony



Dynamika historycznego rozwoju stron www / Wiesława Osińska // W: Biuletyn EBIB [Dokument elektroniczny] / red. naczelny Bożena Bednarek-Michalska - Nr 7/2007 (88) sierpień/wrzesień. - Czasopismo elektroniczne. - [Warszawa] : Stowarzyszenie Bibliotekarzy Polskich KWE, 2010. - Tryb dostępu: http://www.ebib.info/2010/88/a.php?osinska. - Tyt. z pierwszego ekranu. - ISSN 1507-7187