Fork me on GitHub
#clojure-russia
<
2017-10-18
>
rustam.gilaztdinov09:10:08

Добрый день, господа. Посмотрел выступление с последней конфы, про pedestal и vase Правильно ли я понимаю, что vase — это такой темплейт, который создан для того, чтобы организовать апи, описать все спеками, etc, в общем просто видение когнитектом того, как должен выглядить веб-сервис? или есть что-то еще, чего я не осознал? И вопрос вдогонку — кому что понравилось из новых видео? я не все посмотрел, выделить чего-то особенного пока не могу (rich не смотрел). Мне нравятся выступления Stuart Halloway, но в этот раз он просто продавал)

igrishaev10:10:08

Последний доклад Carin M хорош и с юмором.

rustam.gilaztdinov10:10:35

Да, смотрел, забавный, про агента Халовея)

rustam.gilaztdinov10:10:27

Но в контексте доклада — предлагает навернуть враппер поверх DL4J На мой взгляд, DL4j хорош, но ничего интересного, потому как DAG вычислений там статический и его надо компилировать, так делает tensorflow, theano, etc А вот pytorch предлагает новый подход — императивный, с динамической архитектурой, то есть, допустим, в рекуррентых сетях — входная последовательность должна быть одной длины, для статического графа, например, ты ее задаешь изначально, но это совершенно противоречит идее рекуррентых сеток, и в качестве костыля мы вынуждены заполнять нулями последовательность, которая меньше максимальной длины. А если бы была возможность динамически реагировать на размер — и считалось бы все быстрее, не было такого оверхеда Плюс, я совсем не уверен в перфомансе nd4j (который там в качестве бэкенда) на куда, да и просто на цпу. Еще было предложение спекой описать — но смысла особенно нет, опять же, в контексте статического графа. В общем, deep learning в кложе еще совсем в зачатке, и пока ничего интересного я лично не нашел, кроме вот этого — http://neanderthal.uncomplicate.org Вот поверх этого надо делать фреймворк, плюс в качестве мозга http://www.onyxplatform.org Тогда заживем

rustam.gilaztdinov10:10:07

Да, там вообще не очень дела) только сверточные слои, построено на math3, плюс они хотят и ml и dl засунуть в одну библиотеку. Я не проникся совсем

rustam.gilaztdinov10:10:03

И как все развернуть в кластер, тоже не ясно

a.espolov11:10:50

@rustam.gilaztdinov что плохого в том что пытаются запихать ml и dl в одну либу?

a.espolov11:10:04

dl же базируется на идеях ml и активно их использует. более того архитектура dl не является канонической комбинируй себе разные архитекутры на здоровье для достижения лучших результатов. Но да java в этом направлении не в почете. За то есть огромный плюс пока будешь пытаться накодить поймешь что к чему, а не просто запустишь строчку кода на питоне

a.espolov11:10:56

math3 = Apache Commons Mathematics Library ?

rustam.gilaztdinov11:10:45

Плохого может быть и ничего, но зачем мне тащить все в одной библиотеке, когда я хочу просто посчитать линейную регрессию? Даже в питоне, который каноничный, есть scikit-learn для ml, и отдельно тот же tensorflow для dl. Но тут тонкий момент — есть такая библиотека — incanter, которая пошла по пути разделения, и начались проблемы с aot, и все благополучно умерло. В дл, на данный момент, используется сигмоида как ф-я активации, которая есть в логистической регрессии, по сути, все. Есть робкие попытки засунуть случайный лес, на последние слои, но пока все в состоянии ресерча.

a.espolov11:10:53

вроде же не обязательно должна быть сигмоида, по сути это может быть любая функция способная обработать сигнал

rustam.gilaztdinov11:10:13

А, еще sgd, точно, но совсем немного, в общем

rustam.gilaztdinov11:10:31

Да, сигмоида не обязательно — я к тому, что из ml используется в dl

rustam.gilaztdinov11:10:53

Там есть Relu, tanh, но их реализация — две строчки