Dlaczego to nie chwyta, czyli szukanie dziury w 2.0

Im dalej zagłębiam się w różne mniej lub bardziej skomplikowane pojęcia związane z ideą Semantic Web (a do zgłębienia mam jeszcze sporo) tym bardziej zadziwiający wydaje mi się fakt, że tak mało o tych technologiach wie tzw. społeczeństwo (informacyjne bądź co bądź). Jak to jest możliwe, że pomysł, który powstał ponad siedem lat temu, czyli mniej więcej w tym samym czasie kiedy WWW zdobywało świat, jest wciąż pomysłem tak niszowym? Przez te siedem lat zdarzyło się tak wiele, jak to jest możliwe tylko w informatyce. Wielu współczesnych guru sieci czy innych tam dizajnerów śmiało może stwierdzić, że w tym czasie stało się wszystko, czego powstanie w ogóle warto było zauważyć. A jednak systematyczny rozwój mechanizmów SW jest zauważany tylko przez nielicznych. Zresztą pisałem już o tym kiedyś...

Zastanawiając się nad sposobem przezwyciężenia takiego stanu rzeczy dochodzę nieodmiennie do wniosku, że jedyna szansa na zainteresowanie ogółu celowością urzeczywistniania idei Sieci Semantycznej to połączenie jej z jakimś marketingowym bełkotem, który „dizajnerzy”, „webdeweloperzy” i przede wszystkim media tak uwielbiają. Z jakimś hasłem, słowem kluczowym, które powtarzane mniej lub bardziej bezmyślne usta osiada w końcu w zbiorowym umyśle warstwą wiedzy powszechnej. Dzisiaj w roli takiego hasła nośnego występuje oczywiście „Web 2.0”.

nowy web

Mimo, że nikt nie wie czym właściwie jest Web 2.0, to jednak daje się zauważyć, że w całej zabawie chodzi o coś więcej niż tylko pastelowe kolory, zaokrąglone rogi czy nawet AJAX-a w odmianie dowolnej. Chyba nawet nie chodzi o to, że strona WWW jest zorientowana wokół interakcji z userem, choć to oczywiście ważne — może nie zaraz binarny wskaźnik, bo to uważam za pomysł szczególnie mało inteligentny, ale ważne. Moim zdaniem istotne jest coś innego — powiedziałbym tak: strona 2.0 to aplikacja. Zawsze. Nie tylko wtedy kiedy nią być musi.

Interakcja z użytkownikiem jest tylko jednym z elementów tej aplikacji. Innymi są np.:

  • integracja w ramach jednej strony wielu technologii wyspecjalizowanych, współdziałających, ale często od siebie niezależnych — XHTML, XML, CSS, JS, AJAX, co tam jeszcze,
  • wykorzystywanie elementów gotowych, bibliotek dostarczanych przez osoby trzecie, np. biblioteki JS,
  • istnienie warstw, szczególnie warstwy danych zasadniczo różnej od warstwy prezentacji,
  • istnienie mechanizmów mniej lub bardziej pasujących do określenia API, często udostępnianych na zewnątrz,
  • wykorzystanie elementów i/lub danych pobieranych zdalnie z lokalizacji rozproszonych „po świecie”.

I pewnie jeszcze parę innych cech typowych dla webaplikacji dałoby się przypisać do pierwszego z brzegu serwisu czy nietrywialnego bloga.[1]

nowe wyzwania

Wśród wymienionych cech aplikacji „Web 2.0” istnieją zarówno elementy „proste” jak i „trudne”. Do prostych zaliczę (wbrew pozorom) fakt współdziałania wielu technologii „webowych”. Obojętnie jak bardzo może się wydawać onieśmielające pomieszanie XHTML, XML, CSS i JS to jednak są to technologie charakterystyczne dla Sieci — stąd proste dla kogoś, kto w ogóle Siecią się zajmuje.

Trochę trudniejsza jest warstwa odpowiedzialna za poprawną interakcję z użytkownikiem. Jednak jej trudność wynika z konieczności opanowania pewnego zakresu wiedzy z pogranicza psychologii i posiadania odpowiedniej dawki empatii, która umożliwi wczucie się w rolę użytkownika. W pewnym uproszczeniu cała wiedza o użyteczności i dostępności sprowadza się do tej właśnie umiejętności — rób tak, żebyś sam miał ochotę tego używać.

Słowem „trudne” określiłbym tak naprawdę tylko zagadnienia związane z warstwami głębokimi, czyli pobieraniem i przetwarzaniem danych ze źródeł najróżniejszych. Za to zdanie zapewne webmasterzy różnoracy (zwłaszcza domorośli) zechcą mnie zlinczować — powodzenia, bawcie się dobrze. Jednak faktem pozostaje, że jedynie nietrywialne operowanie danymi może być w nowoczesnej aplikacji webowej zadaniem niewykonalnym. Tworzenia strony jako takiej można się nauczyć. Człowieka od interakcji można zatrudnić. Audytorów użyteczności i dostępności można wynająć. Jednak kiedy danych wymienić się nie da, to się nie da i kropka.

A pamiętajmy, że rozmawiamy o Internecie — nie o „bazce”, która sobie leży na jakimś zapyziałym serwerze w piwnicy, tylko o globalnej rozproszonej bazie danych znajdującej się w Sieci, czyli wszędzie.

nowe możliwości

Ponieważ ostatnio staję się banalny i mocno monotematyczny, to co zamierzam teraz powiedzieć jest łatwe do przewidzenia — taka globalna rozproszona baza danych to oczywiście Sieć Semantyczna (w jednej z kilku możliwych wizji).

Chyba każdy podstawowy problem jaki można spotkać podczas próby „dogadania się” kilku niezależnych programów w Internecie jest rozwiązywalny za pomocą RDF, OWL i mechanizmów pokrewnych:

  • dane dostępne zdalnie — RDF łączy rozproszone grafy, a SPARQL je przeszukuje bez szczególnych problemów,
  • dane zawierają obiekty, które muszą pozostać identyfikowalne w całej Sieci — RDF i tak posługuje się URI, czyli równie dobrze może URL-ami,
  • dane są niekompletne i czasami się powtarzają — w świecie otwartym w jakim funkcjonuje RDF to nie nowość,
  • dane w formacie niejasnym dla innych aplikacji — staną się samoopisywalne po zastosowaniu ontologii,
  • dane są tak skomplikowane, że trudno w ogóle wyjaśnić o co w nich chodzi — OWL radzi sobie ze wszystkim.

Itd itp. Różne mniej lub bardziej dziwne zastosowania RDF-a opisywałem już wielokrotnie. Więc może naprawdę RDF zasługuje na coś więcej niż tylko zapomniany format RSS 1.0? Może już czas włączyć go do rozważań z cyklu 2.0 i zastanowić się nad wymianą danych, nie tylko usług?

Oczywiście do tego potrzebny jest odpowiednio sprawny soft. Wspominany dawno temu RAP to mocno za mało. Jednak to już temat na kolejne rozważania... Stay tuned ;-)

[1] Np.: Bellois napisał mi niedawno: „zaskoczyło mnie to, że blog ma własną stronę z preferencjami”. A patrząc na to jak na aplikację — niby dlaczego miałby takiej strony nie mieć...?

patrz również:

Komentarze

#1 | 2006.05.17 23:01 | Elsindel

Pytasz: "Jak to jest możliwe, że pomysł, który powstał ponad siedem lat temu, czyli mniej więcej w tym samym czasie kiedy WWW zdobywało świat, jest wciąż pomysłem tak niszowym?"

Moim zdaniem jednym z powodów jest to, że SW nie może obyć się bez dodawania do treści znaczników przez ludzi. Obecnie nie dysponujemy na tyle bystrymi algorytmami, słownikami, ontologiami, czymkolwiek, co by samo mogło "otagować" każdy jeden obiekt. A jest oczywiste, że znakomita większość treści w Internecie (i wszędzie indziej też) tworzona jest przez osoby, które nie mają pojęcia o programowaniu i kodowaniu, nie znają HTML ani innych języków, i nawet gdyby istniały łatwe w użyciu i powszechnie wbudowane w oprogramowanie komercyjne narzędzia do oznaczania obiektów odpowiednią składnią, to i tak ludzie by tego nie robili: jest to dla nich za trudne i nic im nie daje, bo - właśnie - nawet informatycy nie bardzo wiedzą, co to ma być SW (ma być w tym sensie, że teraz to tylko dziedzina i całe mnóstwo powstających kolejnych specyfikacji, a nie istniejące systemy).

Jednym krokiem w stronę popularyzacji jest inicjatywa microformats (http://microformats.org/). Jeśli takie inicjatywy chwycą i będzie ich coraz więcej, to z czasem będzie także następowała popularyzacja pojęć związanych z Semantic Web. Sądzę jednak, że to i tak niewiele zmieni. W zeszłym roku chodziłem na wykład o inteligentnych agentach, poświęconego w dużej mierze właśnie Semantic Web, na uniwersytecie w Saarbruecken (strona kursu, w tym trochę materiałów, dostępna pod adresem: http://www.dfki.de/%7Eklusch/I2A-UDS-2005.html). Wykładowca, Matthias Klusch, mocno siedzi w tej dziedzinie. Wrażenie z wykładu miałem jedno: na razie SW to chaos, z którego nie wiadomo, co wyniknie; dzieje się bardzo dużo, ale żadne z konkretnych rozwiązań nie jest na etapie powszechnego zastosowania.

Do Internetu wraz z Web 2.0 wchodzą tagi, ludzie uczą się oznaczania informacji. Gdy to się przyjmie także poza używanymi przez wciąż wąskie grono aplikacjami Web 2.0, gdy w CMS-ach itp. będzie to powszechnie używane, to coś drgnie. Ale to potrwa jeszcze kilka lat co najmniej. A, jak mówił rzeczony dr Klusch, "there's a lot happening right now, even if you can't see any of it on the Internet right now." (lub podobnie, tak to odebrałem).

 

Uwaga: Ze względu na bardzo intensywną działalność spambotów komentowanie zostało wyłączone po 60 dniach od opublikowania wpisu. Jeżeli faktycznie chcesz jeszcze skomentować skorzystaj ze strony kontaktowej.