NLP – najważniejsze techniki obecnie

Transformers, attention itp. to najważniejsze obecnie techniki w obszarze NLP. Dokładny opis znajduje się tutaj.

Źródła w arXiv, attention: Bahdanau et al., 2014, Luong et al., 2015, Vaswani et al., 2017.

Interesujący tekst, który podsumowuje korowy problem Word embeddings: Moving beyond the distributional model for word representation by Tannay Gahlot z 23.10.2018

Niezły intuicyjny opis CNN: https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/

NLP – co rozumieją maszyny?

Karen Hao, już tutaj przywoływana, publikuje nowy artykuł na temat sztucznej inteligencji a dokładnie na temat NLP, wprowadzając stary temat, dotyczący zdolności rozumienia przez maszynę tekstu, który jest przez nią generowany. Problem jest stary ponieważ jego źródłem i obszerną realizacją jest idea tak zwanego chińskiego pokoju. Przy okazji Karen Hao dokonuje rekonstrukcji współczesnych technologii NLP w obszarze analizy semantycznej. Artykuł znajduje się tu.

NLP DIY

Bardzo prosty framework for state-of-the-art NLP, stworzony przez Zalando Research to flair. Opis frameworka znajduje się tutaj. Różne typy sieci neuronowych zastosowane do obsługi NLP można znaleźć tutaj. Polski wkład do tej problematyki rozwija się dzięki polskiej odnodze sieci Clarin, która prezentuje projekty na własnej stronie GitHuba. Wśród nich znajduje się projekt pn. PolDeepNer, który rozpoznaje kategorie informacji w tekście, opierając się na deep learning.Polskie zasoby NLP znajdują się także tutaj.

Aktualizowany artykuł podsumowujący postęp rozwiązań na polu NLP przy użyciu deep learning znajduje się tutaj.

Niezły przegląd ostatnich technik NLP w Towards Data Science tutaj.

Ostatni sukces OpenAI: Better Language Models and Their Implications (luty 2019). Model języka pn. GPT-2 opisany w tym artykule jest uznawany za bardzo obiecujący, a nawet niebezpieczny. Komentarz do tego modelu znajduje się na stronie Towards Data Science. Detaliczny i prosty opis jego głównego składnika, którym jest tzw. Transformer architecture znajduje się tutaj.

Kurs na Uniwersytecie Stanforda: CS224n: Natural Language Processing with Deep Learning (mnóstwo materiałów 🙂 )

Bardzo dobry A Beginner’s Guide to Word2Vec and Neural Word Embeddings.

Inna koncepcja NLP, obejmująca analizę kontekstową tzw. deep contextualised word embeddings: ELMo model, w tekście “ELMo: Contextual language embedding” by Josh Taylor.

Aktualizacja 02.04.2019:
Na stronie mc.ai można znaleźć artykuły poświęcone podstawom neural networks i deep learning oraz ich implementacji w Pythonie – a must see – część I: Bread and Butter from Deep Learning by Andrew Ng — Course 1: Neural Networks and Deep Learning by Keon Yong Lee, 2.03.2019 oraz część II: The Bread and Butter from Deep Learning by Andrew Ng — Course 2: Improving Deep Neural Networks by Keon Yong Lee, 8.03.2019.
Pochodzą one z Medium, ale tam mogą być niedostępne.

 

 

Kay-fu Lee: Europa się nie liczy. Tym bardziej Polska

Nieoceniony O’Reilly przynosi hiobową opinię Kay-fu Lee, były szef w Apple I MIcrosoft,były wiceprezydent Google China, autor książki pt. AI Superpowers: China, Silicon Valley, and the New World Order (2018), który mówi wprost: Nie ma nadziei dla sektora sztucznej inteligencji w Europie.O’Reilly jako kontr opinię przedstawia raport Komisji Europejskiej z kwietnia 2018 roku. Pośród 20 omówionych w nim krajów brakuje Polski, mimo, że znajdują się tam takie państwa jak Rumunia czy Czechy. Słabym pocieszeniem jest brak Słowacji, Węgier czy Bułgarii.

AI na poważnie

Rozwój AI jest faktem o coraz szerszym znaczeniu. Kompetentne informacje na ten temat dostarcza nieoceniony O’Reilly. Wzbudza na przykład niepokoje na polu równowagi globalnej z powodu gwałtownego rozwoju AI w Chinach. Szczegółowy raport z roku 2018 na temat stanu badań i wdrożeń AI opracowała grupa badaczy z MIT, Uniwersytetu Stanforda, Harvarda i OpenAI, która utworzyła projekt pod nazwą Artificial Intelligence Index. Jest on częścią szerszej inicjatywy pn. One Hundred Year Study on Artificial Intelligence (AI100), któręj gospodarzem jest Uniwersytet Stanforda, a ściślej Stanford’s Human-Centered AI Institute (HAI). Ten Instytut deklaruje jako przedmiot swoich zainteresowań „To advance AI research, education, policy, and practice to benefit humanity”.

Dostępny jest także skrót raportu skrót na stronie MIT Technology Review zawierający najważniejsze wykresy.