CERN, WWW i internetowe społeczności

Historia CERN zatoczyła koło, co wynika z tej informacji, przynajmniej w kontekście internetu, a ściślej technologii World Wide Web, będącej jego rozszerzeniem, które go zdominowało i zrewolucjonizowało. Powstało dzięki Timowi Bernersowi-Lee i stało się podstawą Web 2.0 czyli zmiany roli użytkownika i wyłonienia się nowego wariantu społecznych interakcji. Zwieńczeniem tej ostatniej ewolucji stał się ruch bezinteresownego świadczenia pracy o rożnych formach, uznawany przez niektórych (np. Yochai’a Benklera) za nową fazę kultury i ekonomii. Koło, o którym mowa, polega na tym, że Berners-Lee stworzył WWW właśnie w CERN i na jego potrzeby (łatwej, hipertekstowej komunikacji umożliwiającej dzielenie się ogromną ilością danych pochodzących z eksperymentów), a teraz CERN, realizując nienową już tendencję, udostępnia powszechnie własne wyniki badań w ramach CERN Open Data Portal.

Crowdsourcing

Crowdsourcing czyli wykorzystanie tłumu do wykonywania zadań produkcyjnych, twórczych lub analitycznych zyskało nową relizację w postaci projektu pt. Good Judgment Project. Jest on prowadzony przez University of Pennsylvania i University of California Berkeley a sponsorowany przez agencję rządową USA pn.  IARPA (U.S. Intelligence Advanced Research Projects Activity) w ramach programu Aggregative Contingent Estimation (ACE). Nowe wcieleni zbiorowej inteligencji Lévy’ego, mądrości tłumów Surowieckiego, czy crowdsourcingu właśnie.


Czy Facebook odejdzie w przeszłość?

Z pewnością, ważne czy stanie się to z szybkością dorównującą jego rozwojowi. Artykuł pt. Epidemiological modeling of online social network dynamics, którego autorami są John Cannarella i Joshua A. Spechler (Department of Mechanical and Aerospace Engineering, Princeton University, Princeton, NJ, USA) przedstawia analizę przebiegu popularności tego serwisu, opartą o model rozprzestrzeniania się choroby pomiędzy osobnikami populacji o nazwie SIR. Materiału statystycznego dostarczają efekty zapytań do bazy Google o terminy MySpace i Facebook. Model SIR (1927) opiera się na trzech ustalonych wielkościach: liczbie niezarażonych osobników (S), zarażonych i zarażających (I), oraz zarażonych lecz niezarażających (R) i stanowi uproszczenie przebiegu rozprzestrzeniania się infekcji, jednak ma charakter formalny i poprawny metodologicznie. Z analizy Cannarelli i Spechlera, która także stara się spełnić wymogi naukowej dysertacji wynika rychły i gwałtowny spadek popularności Facebooka. Ta teza wywołała natychmiastową krytykę w takich tekstach jak Debunking Princeton czy Facebook Hilariously Debunks Princeton Study Saying It Will Lose 80% Of Users. Pierwsza wypowiedź pochodzi od pracowników Facebooka określających się jako data scientists i ośmiesza pracę Spechlera i Canarelli stosując ich metodę do takich bytów jak Princeton czy powietrze, co pokazuje również rychły, gwałtowny spadek popularności resp. istnienia tych ostatnich.
Artykuł i późniejsza dyskusja może mieć dwa istotne skutki: ożywia szukanie odpowiedzi na pytanie, co to znaczy istnieć w internecie oraz podtrzymuje tendencję do poszukiwania oznak zmierzchu Facebooka. Pierwsza kwestia ma siłę wkraczania na obszar zupełnie podstawowych przeświadczeń dotyczących sieci; druga może działać jako samospełniająca się przepowiednia, który to mechanizm dobrze działa w wypadku zjawisk społecznych, dostarczając niechcący argumentu nie wprost tezie artykułu. Obydwie maja swoją wagę, powodującą, że trudno je zlekceważyć.

Google Books

Film pt. „Google i elektroniczny mózg świata” pokazany na 13. Międzynarodowym Festiwalu Watch Docs można zobaczyć także w sieci (tutaj), w serwisie Kinoplex Gazety Wyborczej. Dyskusja na temat zamiarów Google toczy się od lat, poświęcono mu wiele książek, także tłumaczonych na język polski, problem jednak, jak widać, pozostaje aktualny.

16 grudnia br. Google kupiło firmę Boston Dynamics, która produkuje roboty dla armii amerykańskiej i jest wiodącym projektantem tych technologii podaje m. in. Forbes za PAP.

Hummingbird Google

Hummingbird to nowy algorytm wyszukiwarki Google, o którym donosi serwis Search Engine Land (a za nim Gazeta.pl). Poza cieszącym się zrozumiałym zainteresowaniem wpływie na techniki SEO (Search Engine Optimization) tej innowacji (Search Engine Land prowadzi interesujący serwis poświęcony temu tematowi pt. The Periodic Table Of SEO Success Factors), pozostaje jeszcze kwestia ogólniejsza, dotycząca zbliżania się formalnych algorytmów do języka ludzkiego. Jej waga polega na upowszechnianiu tych narzędzi, które stają się oto faktycznymi przewodnikami po świecie treści. Świat ów, widziany obecnie jako uspołeczniony kontener wiedzy, odmienił już sens tej ostatniej kategorii. Temat ten omawiał  bliżej w sierpniowym wywiadzie dla Puget Sound Business Journal Jeff Dean, jeden z badaczy Google.

Polska Wikipedia ma już milion haseł

Taki tytuł dały swojemu doniesieniu Wirtualne Media z 25 września, świętując w ten sposób rekord tego niezwykle popularnego portalu. Jak zwykle w wypadku informacji na temat fenomenów sieci liczby są oszałamiające. Zupełnie odmienny i mniej znany kontekst tworzy problematyka inna, związana z kształtowaniem się wyobrażenia dotyczącego wiedzy w społeczeństwie informacyjnym. Warto przypomnieć, że jednym z najwcześniejszych jej badaczy był francuski filozof Jean-Françoise Lyotard, który w książce pt. Kondycja ponowoczesna. Raport o stanie wiedzy wydanej w 1979 roku, rozważa ideę wiedzy funkcjonującą w społeczeństwie informacyjnym, choć jest ona bardziej znana jako akt założycielski postmodernizmu. Inauguracja wspomnianej problematyki właśnie w fundamentalnym aspekcie poznawczym, pozwala dobrze zrozumieć rolę takich instytucji jak Wikipedia w dzisiejszym świecie.