AdID

AdID to nowa koncepcja identyfikacji użytkownika w sieci, służąca lepszemu sprofilowaniu przeznaczonych dla niego ofert. Pracuje nad nią rzekomo Google i ma ona zastąpić tzw. ciasteczka (cookies), twierdzi autor tekstu w Gazecie Prawnej, powołując się na artykuł USA Today sprzed 10 dni. Ta technika może wywołać przewrót w internetowym przemyśle reklamowym, zwłaszcza, że potrafi zintegrować zachowania użytkowników realizowane za pomocą różnych urządzeń. Jej marketingowe tło tworzy dobrze wypromowany lęk przed tzw. ciasteczkami (cookies), ale cel wydaje się jasny: powiększenie przewagi na rynku reklamy przy jednoczesnej ochronie podstawowego zasobu, jakim są dane na temat użytkowników. Ten ostatni zasób, bardzo wrażliwy, mimo starań Unii Europejskiej, pozostanie z pewnością głównym źródłem dochodów firm korzystających z dobrodziejstw tzw. social media. Konflikt, który trwa w sieci od jej początków, opierający się na różnym postrzeganiu jej celu, dający sie sprowadzić (bardzo upraszczając) do starcia wizji wolnej, suwerennej i egalitarnej przestrzeni społecznej z obszarem gwałtownej ekspansji gospodarczej, ten konflikt trwa dalej. Co więcej, wydaje się przyjmować nowe, bardziej złożone formy.
Aby mieć pojęcie, o jakie tutaj sumy chodzi, warto zerknąć do danych. IAB Internet Advertising Revenue Report  prowadzi stałe badania rynku reklamy internetowej w USA (86% – wiodące firmy), które przeprowadza PricewaterhouseCoopers (PWC). W I kwartale br. przychody z tego tytułu wyniosły 9,6 miliarda $, co oznaczało niewielki spadek w porównaniu z rokiem poprzednim (obszerny komentarz ubiegłorocznego rekordu wraz z poglądowymi statystykami przynosi tekst na stronie Marketing Land).
IAB Europe, którego badania obejmują 26 krajów (w tym Polskę), w raporcie dotyczącym roku 2012 podaje, że wartość europejskiego rynku reklamy online wynosi 24,3 mld € (wydatki). Przewyższa go tylko rynek reklamy telewizyjnej (28,1 mld €).
Wirtualne Media omawiają właśnie skorygowany raport dotyczący rynku reklamy na świecie opracowany przez ZenithOptimedia Group w tekście przytaczającym wiele interesujących statystyk,

Hummingbird Google

Hummingbird to nowy algorytm wyszukiwarki Google, o którym donosi serwis Search Engine Land (a za nim Gazeta.pl). Poza cieszącym się zrozumiałym zainteresowaniem wpływie na techniki SEO (Search Engine Optimization) tej innowacji (Search Engine Land prowadzi interesujący serwis poświęcony temu tematowi pt. The Periodic Table Of SEO Success Factors), pozostaje jeszcze kwestia ogólniejsza, dotycząca zbliżania się formalnych algorytmów do języka ludzkiego. Jej waga polega na upowszechnianiu tych narzędzi, które stają się oto faktycznymi przewodnikami po świecie treści. Świat ów, widziany obecnie jako uspołeczniony kontener wiedzy, odmienił już sens tej ostatniej kategorii. Temat ten omawiał  bliżej w sierpniowym wywiadzie dla Puget Sound Business Journal Jeff Dean, jeden z badaczy Google.

Polska Wikipedia ma już milion haseł

Taki tytuł dały swojemu doniesieniu Wirtualne Media z 25 września, świętując w ten sposób rekord tego niezwykle popularnego portalu. Jak zwykle w wypadku informacji na temat fenomenów sieci liczby są oszałamiające. Zupełnie odmienny i mniej znany kontekst tworzy problematyka inna, związana z kształtowaniem się wyobrażenia dotyczącego wiedzy w społeczeństwie informacyjnym. Warto przypomnieć, że jednym z najwcześniejszych jej badaczy był francuski filozof Jean-Françoise Lyotard, który w książce pt. Kondycja ponowoczesna. Raport o stanie wiedzy wydanej w 1979 roku, rozważa ideę wiedzy funkcjonującą w społeczeństwie informacyjnym, choć jest ona bardziej znana jako akt założycielski postmodernizmu. Inauguracja wspomnianej problematyki właśnie w fundamentalnym aspekcie poznawczym, pozwala dobrze zrozumieć rolę takich instytucji jak Wikipedia w dzisiejszym świecie.

Tematy zaległe: graf wiedzy

W maju br. Google udostępniło polska wersję nowego produktu, który nazywa się graf wiedzy (opis). Jakoś nie znalazłem dotąd informacji, że realizuje on w swoistej formie idę sieci semantycznej (semantic web), której pomysłodawcą był Tim Berners-Lee, który tę wizję opisuje w książce pt.  Weaving the Web. The Original Design and the Ultimate Destiny of the World Wide Web wydanej w roku 2000. Koncepcja semantic web po roku 2005 stała się przedmiotem licznych publikacji, do czego przyczynił się rozwój technologii webowych. Wizja Bernersa-Lee polegała na umożliwieniu maszynom łączenia się nie na poziomie znaków (pozbawionych znaczenia, a jedynie podobnych formalnie), ale wyrażeń posiadających sens.

Humanistyka cyfrowa vs. humanistyka cyfrowości

Właśnie wróciłem z panelu o tytule Humanistyka cyfrowa, który odbywał się w ramach konferencji naukowej pn. Więcej niż obraz. Współczesna kultura i jej badanie, towarzyszącej II Zjazdowi Polskiego Towarzystwa Kulturoznawczego. Zacność tej okoliczności i wspaniały zestaw uczestników szczególnie kazał przyjrzeć się tej części obrad, która jest interesująca z perspektywy niniejszego bloga. Więc parę uwag i wniosków.

Dwie cechy rzucały się w oczy: słaba liczebność widowni (może uzupełnionej o publiczność internetową, ale tutaj liczb brak) oraz przeciętny młody wiek panelistów. Choć czytelnikowi wyda się małostkowe to ostatnie spostrzeżenie, zapewniam, że ma ono głębszy sens i zaczyna się on ujawniać już w chwili próby zrozumienia wypowiedzi zaproszonych gości (przepraszam, że nie wymieniam wszystkich, bliższe informacje znajdują się na przywołanej wyżej stronie). Słuchając ich głosów, dochodzi się do wniosku, że  pojmują zaproponowany temat obocznie, co pozwoliłem sobie zilustrować, proponując kategorię pomocniczą i uzupełniającą: humanistyka cyfrowości obejmowałaby wszystko to, co jest przestrzenią głębokiej refleksji nad zjawiskami o cyfrowym charakterze (głównie internetem), opartej na już istniejących (co wcale nie znaczy: wiekowych) ideach wypracowanych i opublikowanych w ramach szeroko rozumianej humanistyki i nauk społecznych, a więc filozofii, medioznawstwa czy socjologii. Humanistyczny aparat służyłby do interpretacji nowych lub względnie nowych przejawów i manifestacji technologii w różnych obszarach, skłócając je i zmuszając do nowych strategii poznawczych i opisowych (internet to już byt kilkudziesięcioletni, a komputer, podstawa nowych mediów, jest jeszcze starszy). Humanistyka cyfrowa obejmowałaby natomiast wąskie pole metodologiczne, z jej najbardziej trywialnym terytorium, choć jednocześnie wzbudzającym największą fascynację właśnie młodszego pokolenia zestawem praktycznych zastosowań i technik, umożliwiających powstawanie nowych zjawisk (np. Facebook itp.).

Humanistyka cyfrowości łączy się oczywiście z humanistyką cyfrową, ale zrozumienie powodu jej wyodrębnienia jest pierwszym krokiem do zyskania naukowego, humanistycznego, zdystansowanego i podbudowanego wiedzą oglądu rzeczywistości, wynikłej z pojawienia się procesu cyfryzacji, cyfrowości itp.  co skądinąd nie jest proste i wielu autorów poświęciło wiele studiów, aby ten proces uchwycić w naukowym opisie. Ten krok zostawia w tyle najprostszą i niestety najczęstszą strategię podejścia do zjawiska internetu i nowych mediów: fascynację opartą na głębokim przekonaniu, że jego nowość uzasadnia samoistność,samowystarczalność, bezprecedensowość, które pozwalają zignorować to, co było. Piszę tak właśnie okropnie: „to, co było”, bo nie mogę oprzeć się wrażeniu, że powód tej postawy jest banalny: młody wiek (dlaczego tak się dzieje, to znaczy zajmują się internetem w Polsce ludzie młodzi i bardzo młodzi to inna historia). Innymi słowy powodem jest zwyczajna niekompetencja i luki w wykształceniu humanistycznym.

Czy zwrócili Państwo uwagę, że w tym kontekście pojęcie „nowości” zyskuje trywialny charakter? Tymczasem owa nowość jest w większości złudzeniem: ani zjawisko nie jest takie nowe, ani narzedzia do jego opisu takie nie są. Dostarcza także pretekstu do namysłu nad pokoleniowym doświadczeniem, jakim jest niewątpliwie internet. Ale różnica jaka dzieli doświadczenie pokoleniowe i refleksję nad nim, jest właśnie osią nieporozumienia, które tutaj, na gorąco próbuję opisać. Mamy trochę do czynienia z sytuacją, w której eksperymentalne preparaty dyskutują między sobą, bo obserwujący je przez mikroskop badacz zniknął (ów przygotowany merytorycznie interpretator; tutaj: humanista).

Zbłądziłem w stronę kontekstu prowadzenia badań nad cyforowością, a przecież zaproponowana na wstępie oboczność i uzupełniająca kategoria humanistyki cyfrowości też właściwie są banalne i odsyłają do starej już dyskusji na temat wiedzy naukowej, technik i wymogów jej gromadzenia itd. Po pokonaniu jednak tego progu, roztacza się perspektywa ciekawa, na przykład filozoficzne rozpracowanie kwestii egzystencji w kontekście cyfrowości. Bronił prof. Piotr Ostrowicki, zaatakowany zresztą za to, że korzysta z Second Life, gdzie prowadzi od  6 lat projekt pn. Academia Electronica, przez jednego z młodych uczestników dyskusji (nie wszyscy wiedzą, że Second Life to staroć i jest już passé!), który kompletnie nie zwrócił uwagi na sens projektu.

Wydaje się, że trzeba bronić refleksję poświęconą nowym mediom i internetowi przed trywialnością czy banalnością, które są skutkami zwyczajnej niewiedzy (co przy okazji panelu z dumnie użytą humanistyką w tytule jest jak najbardziej na miejscu). A że biorę udział w dyskusji na ten temat już czas jakiś, pozwolę sobie odesłać Czytelnika do własnej książki, kierowanej pogłębioną właśnie (humanistycznie i nie tylko) intencją zrozumienia zjawiska pt. Deus ex machina. Nowe media i ich projekt poznawczy (streszczenie pod adresem http://pragmatykainternetu.pl po kliknięciu na menu Deus ex machina).