Praktyka Big Data i AI

O’Reilly w swoim newsletterze zawarł 4, jak to zostało nazwane, wizualizacje danych dostępnych online w formie doniesień (online news data) przedstawione w tekstach z Forbesa pióra Kaleva Leetaru, są one następujące:
1. Creating A Massive Network Visualization Of The Global News Landscape: Who Links To Whom?
2. What Does Artificial Intelligence See In A Quarter Billion Global News Photographs?
3. Visual Geocoding A Quarter Billion Global News Photographs Using Google’s Deep Learning API
4. Mapping Global Happiness In 2016 Through A Quarter Billion News Articles
Są to jednak także opisy potężnych narzędzi badawczych o niespodziewanych możliwościach takie jak CARTO, Cloud Vision API i BigQuery z oferty Google Cloud Platform czy niesamowitego The GDELT Project.

AI jako problem nie tylko technologiczny

Dwie ważne informacje z pola społecznych i kulturowych kontekstów AI: po pierwsze do zespołu firm, które tworzą Partnership On AI (opisane wcześniej) dołączyło Apple. Dokładniejszy opis okoliczności znajduje się w tekście Jeremy’ego Hsu. Pojawia się tam także druga ważna informacja: The MIT Media Lab i the Berkman Klein Center for Internet and Society at Harvard University stały się dwiema założycielskimi stronami globalnego przedsięwzięcia, stawiającego obie za cel zlikwidowanie luki między humanistyką, naukami społecznymi i informatyką, stwarzając multidyscyplinarne podstawy analizy AI dla powszechnego dobra. W doniesieniu z dn.10 stycznia 2017 roku podani są donatorzy, którzy zebrali 27 mln $ na fundusz mający wspierać stosowne „wysiłki i społeczności”, a także tworzyć sieć współpracy bardzo rożnych podmiotów w obszarze, który „will include questions that address society’s ethical expectations of AI, using machine learning to learn ethical and legal norms from data, and using data-driven techniques to quantify the potential impact of AI, for example, on the labor market”.

AI i realne konteksty

AI wyszła już definitywnie z zaułka pod nazwą „sensacje” lub „prognozy”. Wymaga zatem kompetencji i wiedzy – z czym bywa gorzej –  aby przestać funkcjonować jako element bardzo uproszczonego i ciągle dominującego publicystycznego dyskursu, karmiącego się właśnie sensacyjnymi i fantastycznymi komentarzami. Wkracza natomiast w rozmaite pola rzeczywistości, jako źródło nowych możliwości i problemów. Oto dwa przykłady: raport McKinsey’a dotyczący skutków automatyzacji z perspektywy zarządzania i właśnie procedowane w Parlamencie Europejskim prawo dotyczące robotów. Warto zajrzeć na stronę raportu, który jest do pobrania w różnych wersjach (kompletny, streszczenie). 12 stycznia 2017 roku odbyło się natomiast głosowanie w Komisji Prawnej Parlamentu Europejskiego nad sprawozdaniem w sprawie przepisów prawa cywilnego w robotyce – więcej w specjalnej prasowa informacji na ten temat. Uzupełnia tę informację wniosek dotyczący prawnego uregulowania sytuacji robotów pochodzący z roku 2016, a także studium pt.European civil law rules in robotics.

AI tutorial ze Stanford University

Dobre i skrótowe wskazówki dotyczące sieci neuronowych wraz ze wstępem, które pochodzą z kursu pn. Convolutional Neural Networks for Visual Recognition na Stanford University, a ściślej na Stanford Vision Lab są umieszczone na GitHub i znajdują się pod adresem: http://cs231n.github.io/. Wśród szczegółowych opisów kolejnych problemów, znajduje się także skrócone wprowadzenie do sieci neuronowych. Tutorial ma charakter praktyczny

Język jako przedmiot AI – czy to początek nowej ery?

Język naturalny jest jednym z centralnych przedmiotów zainteresowania w ramach rozwoju AI. O’Reilly wspomina o dwóch ostatnich faktach w tej dziedzinie: po pierwsze posłużeniu się w uczeniu inteligentnych systemów rozpoznawania języka naturalnego także procesem interakcji językowej (a nie tylko biernym rozpoznawaniem wzorców), co ma zbliżyć te naukę do procesu jaki przechodzą dzieci. Opis doświadczenia znajduje się na blogu Natural Language Processing Group w Stanford University. Drugim faktem jest rozwój narzędzia i koncepcji tłumaczenia, o której na swoim blogu donosi Google. Google Translate od 10 lat się doskonali i tłumaczy dziennie 140 mld słów w 103 językach. Od września 2016 roku rozwija się nowa jego wersja pn. Google Neural Machine Translation (GNMT) oparta na systemie uczących się sieci neuronowych (tutaj opis). Zapis na blogu donosi o nowej, odkrytej tam możliwości, nazwanej „Zero-Shot Translation” (artykuł na arXiv), czyli tłumaczeniu między parami języków, które to pary nie były przedmiotem nauki, nie były wcześniej przez system tłumaczący widziane. To oznacza niezwykłe rozszerzenie możliwości stworzonego systemu językowego i pytanie czy to oznacza, że system może tworzyć reprezentację zdań i ich znaczeń niezależną od jakiegokolwiek języka, przy czym ta reprezentacja daje się przedstawić formalnie? To pytanie może prowadzić do odpowiedzi stanowiących rewolucję w sposobie postrzegania natury języka. A dalej do konsekwencji o niewyobrażalnych skutkach, gdy zważymy, jaką rolę pełni język zgodnie z tym, co pisze o nim humanistyka przez cały wiek XX.