CAPTCHA złamana – nowe możliwości sieci neuronowych

Wyborcza podała, ze w Science 26.10. br. ukazał się artykuł dotyczący nowych możliwości sieci neuronowych. Praktycznie służy ona do rozpoznawania przypadkowych, graficznych znaków, które człowiek jest w stanie rozpoznać jako litery lub cyfry (opiera się na tym zabezpieczenie przed maszynową aktywnością, badające czy proces uruchamia człowiek zastosowany np. w systemie CAPTCHA). Jednak zakład jest o wiele poważniejszy; chodzi o osiągnięcie przez maszynę zdolności dotychczas zastrzeżonych dla człowieka: „zdolności do uczenia się i uogólniania na podstawie niewielkiej ilości przykładów”. Rozwiązanie proponowane przez autorów – Recursive Cortical Network, opiera się na mechanizmie zaobserwowanym u ssaków i implementuje stosowne odkrycie z dziedziny neuroscience w odpowiednio skonstruowanej sieci neuronowej.

Praktyka Big Data i AI

O’Reilly w swoim newsletterze zawarł 4, jak to zostało nazwane, wizualizacje danych dostępnych online w formie doniesień (online news data) przedstawione w tekstach z Forbesa pióra Kaleva Leetaru, są one następujące:
1. Creating A Massive Network Visualization Of The Global News Landscape: Who Links To Whom?
2. What Does Artificial Intelligence See In A Quarter Billion Global News Photographs?
3. Visual Geocoding A Quarter Billion Global News Photographs Using Google’s Deep Learning API
4. Mapping Global Happiness In 2016 Through A Quarter Billion News Articles
Są to jednak także opisy potężnych narzędzi badawczych o niespodziewanych możliwościach takie jak CARTO, Cloud Vision API i BigQuery z oferty Google Cloud Platform czy niesamowitego The GDELT Project.

Widok „mózgu” AI

Wired publikuje efekty pracy narzędzia stworzonego przez Graphcore do graficznej prezentacji obliczeń dokonywanych przez sieć neuronową w trakcie „uczenia się” (machine learning). To swoista mapa procesów jakie wykonuje sieć neuronowa w trakcie różnego typu zadań.
Przykład takiej wizualizacji pobrany ze strony: https://www.theregister.co.uk/2017/02/17/machine_learning_graphical_eye_candy/:

graphcore_resnet_50_graph_labelled_650

„We need more philosophers in AI”

Ten pozornie kontrowersyjny tytuł opatruje wywiad z Genevieve Bell, wiceprezes Intela, która rozwija myśl dalej: If we’re talking about a technology that is as potentially pervasive as this one and as potentially close to us as human beings, I want more philosophers and psychologists and poets and artists and politicians and anthropologists and social scientists and critics of art. Całość wywiadu u O’Reilly’ego tutaj.

Sztuczna inteligencja Google

GW przypomniała o wynikach pracy, które Google ogłosił z końcem lutego br. w firmowym blogu. Dotyczą one opisanego w Nature algorytmu pn. deep Q-network (DQN) w tekście pt. Human-level control through deep reinforcement learning. Dziennikarz GW przypomina, że jest on dziełem zakupionej rok temu firmy DeepMind noszącej obecnie nazwę Google DeepMind. Istnieje ona od 2011 roku. W grudniu roku 2013 jego twórcy ogłosili tekst  pt. Playing Atari with Deep Reinforcement Learning na portalu arXiv (otwarta biblioteka tekstów Uniwersytetu Cornella) oraz w czasie warsztatów poświęconych deep learning. Dwa miesiące później kupiło tę firmę Google (więcej). Nowe rozwiązanie uzupełnia mechanizm deep learning i mechanizm reinforcement learning, pozwalając posunąć się istotnie w rozwiązaniu problemu agenta (robota), który może poruszać się w środowisku (rozpoznając go), którego nie zna (nie ma wbudowanych żadnych informacji wstępnych na jego temat). Testowych środowisk dostarczyły w opisanym tekście dosyć proste gry komputerowe, które były dostępne przez graficzny interfejs, ale Google nie ukrywa, że chodzi o zdolność „poruszania się” w środowisku danych, w którym działa np. wyszukiwarka (oryginalny przykład pytania: “Okay Google, plan me a great backpacking trip through Europe!”). To jest oczywiście wersja optymistyczna („klient nasz pan”), pesymistyczna odwraca sytuację: to poważna przewaga nad konkurencją w wykorzystaniu tzw. big data.

CERN, WWW i internetowe społeczności

Historia CERN zatoczyła koło, co wynika z tej informacji, przynajmniej w kontekście internetu, a ściślej technologii World Wide Web, będącej jego rozszerzeniem, które go zdominowało i zrewolucjonizowało. Powstało dzięki Timowi Bernersowi-Lee i stało się podstawą Web 2.0 czyli zmiany roli użytkownika i wyłonienia się nowego wariantu społecznych interakcji. Zwieńczeniem tej ostatniej ewolucji stał się ruch bezinteresownego świadczenia pracy o rożnych formach, uznawany przez niektórych (np. Yochai’a Benklera) za nową fazę kultury i ekonomii. Koło, o którym mowa, polega na tym, że Berners-Lee stworzył WWW właśnie w CERN i na jego potrzeby (łatwej, hipertekstowej komunikacji umożliwiającej dzielenie się ogromną ilością danych pochodzących z eksperymentów), a teraz CERN, realizując nienową już tendencję, udostępnia powszechnie własne wyniki badań w ramach CERN Open Data Portal.