Еще на тему
По крайней мере твои знания математики могут спиздить велик
И тебе придётся его заново изобретать
И сесть в тюрьму.
а иначе как бы ты открыл кодовый велозамок?
![it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор](http://img0.reactor.cc/pics/comment/it-%D1%8E%D0%BC%D0%BE%D1%80-geek-3253590.jpeg)
на самом деле, они открываются достаточно просто. Обучать не буду, но когда я купил себе такой замок уцененный (был закрыт и к нему не было пароля). То верное положение замка нашел за минут 5. И это при том, что пытался открыть такой замок впервые.
![Ole_G](http://img0.reactor.cc/images/default_avatar_50.gif)
Мои знания математики меня не спасают.
Может ты просто не так хорош, как думаешь. Сколько будет 2 + 2 * 2?
Столько же, сколько 1+1+1+1+1+1
А ты не знаешь какую алгебру я придумал.
Как минимум с двумя бинарными операциями.
![it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор](http://img1.reactor.cc/pics/comment/it-%D1%8E%D0%BC%D0%BE%D1%80-geek-3254139.gif)
Это как блять?
это только при условии, что ряд не кончается
Что такое машинное обучение в данном контексте?
То, чем ты не можешь заниматься из-за хреновых знаний математики
По гуглу я находил только связанные с ИТ разные вещи, там математики кот наплакал...
если очень упростить, то МО суть есть набор уравнений, чем пиже надрочишь их в своей НС тем резче работает алгоритм
Нет, ML — целиком и полностью математика. То что существует некоторое количество имплементаций, которые легко завести без соответствующей подготовки, не означает что там под капотом нет математики.
![Remper](http://img0.reactor.cc/images/default_avatar_50.gif)
Ну разве там есть хоть немного сложной математики? Если сравнивать с квантовыми вычислениями в физике.
Не везде обезательно сложная математике.
Ну пройдись по последнему nips'у
Вот тут список публикаций: https://papers.nips.cc/book/advances-in-neural-information-processing-systems-31-2018
Возьми пять наугад и полистай, чтобы иметь представление
Ну пройдись по последнему nips'у
Вот тут список публикаций: https://papers.nips.cc/book/advances-in-neural-information-processing-systems-31-2018
Возьми пять наугад и полистай, чтобы иметь представление
![int16](http://img0.reactor.cc/images/default_avatar_50.gif)
Посмотрел, как то не сильно сложно, именно часть математики, с ней проблем почти нет.
Ну я хз. Без понятия как ты определяешь сложность. На мой взгляд, если не иметь опыта с МЛ, то в большинстве случаев понять о чем там математика достаточно сложно. Если не знать о чем оно, то определить сложность затруднительно. Сложность вообще весьма субъективная метрика.
Математика там и действительно не самая сложная, но есть свои заморочки.
Вот глянь вот это https://arxiv.org/pdf/1312.6114.pdf . Это не самое сложное, но и далеко не тривиальное. Если у тебя нету никаких проблем с пониманием, то я тебе поздравляю, подтягивай остальные азы МЛ которые должны показаться для тебя тривиальными, осваивай МЛ тулзы и иди на собеседование в гугл или амазон. В гугле самые сложные вопросы будут на уровне объяснить в общих чертах статью выше, даже не вникая в детали.
Математика там и действительно не самая сложная, но есть свои заморочки.
Вот глянь вот это https://arxiv.org/pdf/1312.6114.pdf . Это не самое сложное, но и далеко не тривиальное. Если у тебя нету никаких проблем с пониманием, то я тебе поздравляю, подтягивай остальные азы МЛ которые должны показаться для тебя тривиальными, осваивай МЛ тулзы и иди на собеседование в гугл или амазон. В гугле самые сложные вопросы будут на уровне объяснить в общих чертах статью выше, даже не вникая в детали.
![int16](http://img0.reactor.cc/images/default_avatar_50.gif)
95% MLщиков даже регрессии из коробки должно хватать
Все относительно, смотря что делать. Я про 95% не стал бы утверждать.
![int16](http://img0.reactor.cc/images/default_avatar_50.gif)
Это была отсылка к 95% населения - идиоты :)
да как и обычное программирование
есть системные программисты, пишут драйверы, алгоритмы, библиотеки, компиляторы их не много
а есть прикладные которые это эексплуатируют
ML масштабен и вряд ли в продакшене вы будете делать что-то большее, чем эксплуатировать библиотеки
есть системные программисты, пишут драйверы, алгоритмы, библиотеки, компиляторы их не много
а есть прикладные которые это эексплуатируют
ML масштабен и вряд ли в продакшене вы будете делать что-то большее, чем эксплуатировать библиотеки
Новая поделка DeepMind раскатала топового проплеера во втором старкрафте.
![Test001](http://img0.reactor.cc/images/default_avatar_50.gif)
И тут же породило срачи
Там Алекс явно показал, что ии читерит.
Не читерит, просто ниибический микроконтроль, ктторый даже корейцы не тянут.
Там есть момент, где ИИ сначала построил нексус, а потом выбрал его и еще один, не наводя камеры. Сделать без "читов" это невозможно.
БОльшая часть претензий к AlphaStar логично проистекает из того, что нейронка играет через API. Вряд ли у DeepMind был какой-то там злой умысел всех наебать, скорее просто недосмотр.
Да и ещё большой вопрос, сильно ли эти "читы" помогли боту.
Да и ещё большой вопрос, сильно ли эти "читы" помогли боту.
Сильно, потому что человек не имеет возможности видеть и оперировать сразу на всей карте.
Помогли и помогли сильно. Когда боту отрубили супер-камеру на всю карту, бот проиграл. А перед этим раскатал чистыми сталкерами нормальный микс из имморталов и сентрей, который является отличной контрой к сталкерам, исключительно благодаря нечеловеческому микро всех сталкеров на карте практически одновременно.
![perditions_blade](http://img0.reactor.cc/images/default_avatar_50.gif)
Без суперкамеры бот учился играть всего ничего, в этом все дело.
Парни, смотрите глубже. Можно ограничить боту поле зрения, можно ещё сильнее урезать пиковый АПМ, можно даже ввести минилаги при скроллинге и отдаче команд для эмуляции елозинья мышкой, да что угодно можно придумать.
Но суть ведь не изменится. AlphaStar показал главное - способность обучиться до про уровня. Изменятся условия - он точно так же за пару недель под них подстроится, будет давить не микро, а макро и экономикой. Возможно даже, что про игроки будут у него периодически вырывать победу-другую, но и только.
Парни, смотрите глубже. Можно ограничить боту поле зрения, можно ещё сильнее урезать пиковый АПМ, можно даже ввести минилаги при скроллинге и отдаче команд для эмуляции елозинья мышкой, да что угодно можно придумать.
Но суть ведь не изменится. AlphaStar показал главное - способность обучиться до про уровня. Изменятся условия - он точно так же за пару недель под них подстроится, будет давить не микро, а макро и экономикой. Возможно даже, что про игроки будут у него периодически вырывать победу-другую, но и только.
1500 епм в замесах тоже как бы ок.
Я и говорю, что пиковый АПМ и ЕАПМ можно порезать, но это не повлияет ни на что, просто увеличит время обучения и научит бота еще лучше оптимизировать свой бюджет АПМ.
Если проводить аналогии с AlphaGo, то на близконе выкатят допиленную версию, которая будет рвать любого на любой расе, а Мана останется единственным человеком победившим AlphaStar.
![Test001](http://img0.reactor.cc/images/default_avatar_50.gif)
Собственно, DeepMind уже подтвердили, что работа продолжается и AlphaStar будет допиливаться под другие расы и карты.
как раз макро и экономикой он до про уровня и близко не дотягивает- тупо в микро решает в ключевых сражениях.
грубо говоря в стратегии он ноль. а вот в шутерах - да мгновенно видит врага и принимает решение - этим и тащит.
грубо говоря в стратегии он ноль. а вот в шутерах - да мгновенно видит врага и принимает решение - этим и тащит.
![imhos](http://img0.reactor.cc/images/default_avatar_50.gif)
Дык о том и речь. Бот уже нащупал для себя удобную тактику "наспамить сталкеров и перемикрить" и отточил ее до совершенства. Зачем ему напрягаться еще и в стратегии, если и так всё норм работает? Изменятся условия - будет адаптироваться, способность и возможность к этому он уже показал.
Тем не менее, пока выдающееся макро для него недоступно, иначе разработчикам не пришлось бы лукавить по поводу его камеры и апм. Реально не понимаю, с чего они статьях так усердно давят на его "средний апм 200", при том, что в боях у него епм чуть ли не 1000. Инвесторам пыль в глаза пускают, что ли... Да и вообще игру он понимает не супер, что видно хотя бы по батарейке в минеральной линии, из-за которой пробки вынуждены петлять.
![perditions_blade](http://img0.reactor.cc/images/default_avatar_50.gif)
Не, он в видео говорил о том что разработчики малость соврали о возможностях ии, что не смотря на то что ему ограничили апм, у него все равно реакция на происходящее исчисляется кадрами и он контролит всю карту поэтому почти все киберкотлеты и проиграли
![madhunter](http://img0.reactor.cc/images/default_avatar_50.gif)
Мне часто приходится общаться со спецами по машинному обучению. Могу сказать, что в среднем знания математики у них крайне хреновые. БОльшая часть людей не делает даже простейшего статистического анализа полученных результатов и не понимает алгоритмов, заложенных в основу МО. Мотивирует это охуительнейшим методом: "А зачем? Все равно никто не знает почему методы МО работают?". Так что в этой области главное знать чем вектор от матрицы отличается.
![Chaosit](http://img0.reactor.cc/images/default_avatar_50.gif)
Точно так же как и везде у людей есть разный уровень. MLем можно заниматься зная только базовую линейную алгебру (низкий уровень) собирая из готовых компонентов, а можно заниматься с профильным PhD (высокий уровень) и придумывать новые алгоритмы и двигать state-of-the-art.
![Remper](http://img0.reactor.cc/images/default_avatar_50.gif)
Ресирчер врывается в тред.
Проблема в том, что в СНГ всё ещё существует нехватка соображающих в этой теме товарищей, а рынок при этом кластеризован ввиду незнания того, а что действительно такое хороший МЛ. Кластера два. Первый это компании, которые уже разобрались в том, что хорошо и что плохо, у них опытные товарищи и вилка ЗП в России около 200-600к. Второй это компании, слабо разбирающиеся в этом и приравнивающие МЛ парней к обычным девелоперам, поэтому и ЗП около 100-250к. Например, в РБ сейчас даже такой кластеризации нет и предложения выше 5к долляров для МЛ парней единичные.
По поводу математики - рандомное тыкание методов из библиотек и слоев из кераса "потому что так сказали в интернете" очень маловероятно приведёт к хорошему результату, а если концептуально и приведёт, то к достаточно низкому по точности.
И здесь встаёт вопрос того, насколько глубоко нужно понимать математику под капотом для того, чтобы инженерить или ресирчить.
Фактически в нормальном мире происходит разделение на три слоя МЛ парней: МЛ инженеры, МЛ ресирч инженеры, МЛ ресирчеры. Существуют ещё дата саентисты, но тут всё до жути размыто зачастую, особенно в СНГ. Кого только ДС не называют: и бизнес-аналитиков, и МЛ инженеров, и математиков-статистов, и так далее. Так что останемся пока на тех трёх парнях выше.
МЛ инженер это тот парень, который знает об основных задачах в своей области(Под-область МЛа), о том, как их решать, как оптимизировать. Попутно он может хорошо реализовать решение на целевом языке и платформе. То есть это что-то среднее между обычным программером и парнем, понимающем в МЛе. Соответственно необходимая ему математика имеет такой минимум:
Векторный анализ(Хватит Странга), линейная алгебра(Странг \ Хоффман), теорвер(Росс \ ДеГрут), оптимизация(Бойд) на уровне бакалаврских книжек.
МЛ ресирч инженер это тот парень, который заточен больше под то, чтобы реализовать конкретный алгоритм либо как-то его модифицировать попутно, но без подвязки к эффективности на какой-то платформе. По сути они занимаются чтением пэйперов либо дискассами с локальными саентистами, а потом это всё по-хорошему реализуют. Математическая база уже требует возможности читать пэйперы в какой-то области локальной. Соответственно здесь понимание методов должно быть уже на уровне вероятностно-статистических методов или, например, гомеоморфизмов и гиперплоскостей. То есть де факто здесь это уровень graduate degree, возможно MS, возможно PhD.
МЛ ресирчеры, очевидно, занимаются ресирчем, зачастую делают образную реализацию своих изобретений(потому что код у них отвратный), а потом ресирч инженеры занимаются нормальной реализацией. Здесь уже встаёт вопрос в способностях к ресирчу и пока что мало кто берёт парней без PhD, хотя на самом деле достаточно инициативного ума и некоторых фич исследовательского мышления. А математика здесь уже может быть безумной.
Проблема в том, что в СНГ всё ещё существует нехватка соображающих в этой теме товарищей, а рынок при этом кластеризован ввиду незнания того, а что действительно такое хороший МЛ. Кластера два. Первый это компании, которые уже разобрались в том, что хорошо и что плохо, у них опытные товарищи и вилка ЗП в России около 200-600к. Второй это компании, слабо разбирающиеся в этом и приравнивающие МЛ парней к обычным девелоперам, поэтому и ЗП около 100-250к. Например, в РБ сейчас даже такой кластеризации нет и предложения выше 5к долляров для МЛ парней единичные.
По поводу математики - рандомное тыкание методов из библиотек и слоев из кераса "потому что так сказали в интернете" очень маловероятно приведёт к хорошему результату, а если концептуально и приведёт, то к достаточно низкому по точности.
И здесь встаёт вопрос того, насколько глубоко нужно понимать математику под капотом для того, чтобы инженерить или ресирчить.
Фактически в нормальном мире происходит разделение на три слоя МЛ парней: МЛ инженеры, МЛ ресирч инженеры, МЛ ресирчеры. Существуют ещё дата саентисты, но тут всё до жути размыто зачастую, особенно в СНГ. Кого только ДС не называют: и бизнес-аналитиков, и МЛ инженеров, и математиков-статистов, и так далее. Так что останемся пока на тех трёх парнях выше.
МЛ инженер это тот парень, который знает об основных задачах в своей области(Под-область МЛа), о том, как их решать, как оптимизировать. Попутно он может хорошо реализовать решение на целевом языке и платформе. То есть это что-то среднее между обычным программером и парнем, понимающем в МЛе. Соответственно необходимая ему математика имеет такой минимум:
Векторный анализ(Хватит Странга), линейная алгебра(Странг \ Хоффман), теорвер(Росс \ ДеГрут), оптимизация(Бойд) на уровне бакалаврских книжек.
МЛ ресирч инженер это тот парень, который заточен больше под то, чтобы реализовать конкретный алгоритм либо как-то его модифицировать попутно, но без подвязки к эффективности на какой-то платформе. По сути они занимаются чтением пэйперов либо дискассами с локальными саентистами, а потом это всё по-хорошему реализуют. Математическая база уже требует возможности читать пэйперы в какой-то области локальной. Соответственно здесь понимание методов должно быть уже на уровне вероятностно-статистических методов или, например, гомеоморфизмов и гиперплоскостей. То есть де факто здесь это уровень graduate degree, возможно MS, возможно PhD.
МЛ ресирчеры, очевидно, занимаются ресирчем, зачастую делают образную реализацию своих изобретений(потому что код у них отвратный), а потом ресирч инженеры занимаются нормальной реализацией. Здесь уже встаёт вопрос в способностях к ресирчу и пока что мало кто берёт парней без PhD, хотя на самом деле достаточно инициативного ума и некоторых фич исследовательского мышления. А математика здесь уже может быть безумной.
![FeoNoktis](http://img0.reactor.cc/images/default_avatar_50.gif)
Ладно, рисерчер отвечает:
Опять же общаясь с людьми из тех кто применяет ML к решению исследовательских задач (за пределами СНГ, в том числе в весьма респектабельных учреждениях) - чаще всего получается какая-то алхимия: они применяют методы, которых не понимают для решения проблем, которые опять же до конца непонятны. Очевидно, что цель научного процесса - это производство новых данных, но эти данные никак не верифицируемы, а совпадения с экспериментальными результатами чаще всего случайные. А случайные они потому, что до сих пор нету теории, которая объяснила бы почему они правильные и в каких рамках входных параметров они будут правильными.
Не довелось лично пообщаться с теми, кто разрабатывает сами подходы, не могу дать им конкретной оценки. Видел только курс Andrew Ng на курсере и несколько статей. Их подход к численному анализу меня довольно сильно раздражает неточностями и поверхностностью. Но опять же не буду присваивать себе звания спеца в данной области.
А касательно применителей ML - у меня до сих пор пригорает, когда мне один из таких знакомых (после прохождения курса на курсере) сказал: "мне нравится градиентный спуск потому, что это чисто программный алгоритм без всякой математической хуйни". Не спорю, что сама область мб и хороша, но сейчас ее пытаются использовать все (не думая опять же - а нужно ли оно им), в том числе и обладатели IQ равного комнатной температуре, что сильно подрывает авторитет всей отрасли. Раздражает сам подход - давай свалим кучу дерьма, приправим парой методов оптимизации и будем перемешивать пока не выйдет что-то толковое.
Извините за бугурт.
P.S. Я не математик. Честно не пизжу - я физик
Опять же общаясь с людьми из тех кто применяет ML к решению исследовательских задач (за пределами СНГ, в том числе в весьма респектабельных учреждениях) - чаще всего получается какая-то алхимия: они применяют методы, которых не понимают для решения проблем, которые опять же до конца непонятны. Очевидно, что цель научного процесса - это производство новых данных, но эти данные никак не верифицируемы, а совпадения с экспериментальными результатами чаще всего случайные. А случайные они потому, что до сих пор нету теории, которая объяснила бы почему они правильные и в каких рамках входных параметров они будут правильными.
Не довелось лично пообщаться с теми, кто разрабатывает сами подходы, не могу дать им конкретной оценки. Видел только курс Andrew Ng на курсере и несколько статей. Их подход к численному анализу меня довольно сильно раздражает неточностями и поверхностностью. Но опять же не буду присваивать себе звания спеца в данной области.
А касательно применителей ML - у меня до сих пор пригорает, когда мне один из таких знакомых (после прохождения курса на курсере) сказал: "мне нравится градиентный спуск потому, что это чисто программный алгоритм без всякой математической хуйни". Не спорю, что сама область мб и хороша, но сейчас ее пытаются использовать все (не думая опять же - а нужно ли оно им), в том числе и обладатели IQ равного комнатной температуре, что сильно подрывает авторитет всей отрасли. Раздражает сам подход - давай свалим кучу дерьма, приправим парой методов оптимизации и будем перемешивать пока не выйдет что-то толковое.
Извините за бугурт.
P.S. Я не математик. Честно не пизжу - я физик
![Chaosit](http://img0.reactor.cc/images/default_avatar_50.gif)
Тут проблема заключается в следующем: большая часть ресирчеров 1) Плохо знакомы с основами теоретической информатики, 2) Плохо знакомы с языковым инструментарием, и когда появляются МЛ задачи, то 3) Плохо знакомы с теорией под машинным обучением.
В итоге получается, что многие ресирчеры (кроме парней в CS области) допускают множество ошибок в своём использовании инструментов информатики(Помню не так давно читал пэйпер SEGAN, у них есть реализация модели на гитхабе и она убийственна).
Какое-то время уже общаюсь с парнями из ODSа, там достаточно людей, которые после PhD по физике перекатываются в DS(особенно на примере Владимира Игловикова, который сейчас вообще в Lyft попал), и у них можно заметить расслоение между теми, кто разобрался и не разобрался в основах информатики просто по их речи с применением каких-то терминов. Просто для этого нужно потратить годик-другой, чтобы действительно разбираться.
Насчёт курсов в интернетах: на самом деле очень мало стоящих и достаточно фундаментальных. Например, на курсере есть Deep Learning от Ынга и его же используют в Стэнфорде на CS230. У Яндекса курс по С++ довольно-таки полноценный. У Стэнфорда по алгоритмам достаточно обширный курс. Но так или иначе они рекомендуют литературу, которая гораздо глубже всё это покрывает.
Несомненно, ML у Ынга на курсере рассчитан на гуманитариев практически, так как он не требует даже понимания производных, переводя всё в общее понимание. Но в то же время на Stanford Engineering Everywhere есть тот же самый CS229 Ынга, в котором он начинает с выведение функции ошибки как логарифма постериорной вероятности из нормального распределения данных.
То есть в целом кроме очень крутых книжек, которых гора публикуется(которые я благополучно спиратил), существует и ряд курсов, которые очень и очень неплохи, в том числе и от ODS.
Да, здесь есть проблема и проблема в том, что область всё ещё не в состоянии отсеивать тех, кто ни черта не понимает в подкапотных вещах. Поэтому и существует расслоение, о котором я говорил. Самое смешное, что по сути градиентный спуск это идея из выпуклой оптимизации, хотя работаем мы не с такими функциями, и тут уже появляется много эвристик для его модификации. Но так или иначе сама область оптимизации очень сильно базируется на математическом анализе, поэтому говорить о нематематичности этого было бы смешно, хех.
В целом здесь есть такая вещь, когда общаешься с инвесторами или менеджерами, то "Мы будем применять машинное обучение" сразу призывает хайповый интерес от несведущих, тонны инвестиций и так далее. Поэтому зачастую совершенно бестолковые парни зарекаются на эту тему, а наивные управленцы раскидываются деньгами в надежде хайпануть.
В итоге получается, что многие ресирчеры (кроме парней в CS области) допускают множество ошибок в своём использовании инструментов информатики(Помню не так давно читал пэйпер SEGAN, у них есть реализация модели на гитхабе и она убийственна).
Какое-то время уже общаюсь с парнями из ODSа, там достаточно людей, которые после PhD по физике перекатываются в DS(особенно на примере Владимира Игловикова, который сейчас вообще в Lyft попал), и у них можно заметить расслоение между теми, кто разобрался и не разобрался в основах информатики просто по их речи с применением каких-то терминов. Просто для этого нужно потратить годик-другой, чтобы действительно разбираться.
Насчёт курсов в интернетах: на самом деле очень мало стоящих и достаточно фундаментальных. Например, на курсере есть Deep Learning от Ынга и его же используют в Стэнфорде на CS230. У Яндекса курс по С++ довольно-таки полноценный. У Стэнфорда по алгоритмам достаточно обширный курс. Но так или иначе они рекомендуют литературу, которая гораздо глубже всё это покрывает.
Несомненно, ML у Ынга на курсере рассчитан на гуманитариев практически, так как он не требует даже понимания производных, переводя всё в общее понимание. Но в то же время на Stanford Engineering Everywhere есть тот же самый CS229 Ынга, в котором он начинает с выведение функции ошибки как логарифма постериорной вероятности из нормального распределения данных.
То есть в целом кроме очень крутых книжек, которых гора публикуется(которые я благополучно спиратил), существует и ряд курсов, которые очень и очень неплохи, в том числе и от ODS.
Да, здесь есть проблема и проблема в том, что область всё ещё не в состоянии отсеивать тех, кто ни черта не понимает в подкапотных вещах. Поэтому и существует расслоение, о котором я говорил. Самое смешное, что по сути градиентный спуск это идея из выпуклой оптимизации, хотя работаем мы не с такими функциями, и тут уже появляется много эвристик для его модификации. Но так или иначе сама область оптимизации очень сильно базируется на математическом анализе, поэтому говорить о нематематичности этого было бы смешно, хех.
В целом здесь есть такая вещь, когда общаешься с инвесторами или менеджерами, то "Мы будем применять машинное обучение" сразу призывает хайповый интерес от несведущих, тонны инвестиций и так далее. Поэтому зачастую совершенно бестолковые парни зарекаются на эту тему, а наивные управленцы раскидываются деньгами в надежде хайпануть.
![FeoNoktis](http://img0.reactor.cc/images/default_avatar_50.gif)
Кстати да - можешь заодно объяснить - как в ML борятся с локальными минимумами? Методы глобальной оптимизации сожрут кучу ресурсов и при этом не факт, что дадут верный результат в обозримом будущем.
![Chaosit](http://img0.reactor.cc/images/default_avatar_50.gif)
Не борются. В том смысле, что глобальная оптимизация охренеть какая затратная, а зачастую нам достаточно неидеального решения задачи. Например, можно запускать локальные методы с некоторым образом распределённых точек. Можно искать эти точки посредством какого-нибудь приближения вроде grid search, то есть по сути эвристически потыкать в разные регионы функции, увидеть где получше всего выходит и там начать оптимизацию.
Потом сами методы оптимизации модифицируются, например, градиентный спуск может учитывать аналог импульса в своём движении, можно делать "проверку" потенциального шага и если он не очень, то откатываться обратно и модифицировать шаг. Там очень много всяких фич, если хочешь без особой детальности разобраться, то в Николенко есть глава по этому поводу, он там и ссылки даёт на отдельные ресурсы, чтобы разобраться глубже.
Потом сами методы оптимизации модифицируются, например, градиентный спуск может учитывать аналог импульса в своём движении, можно делать "проверку" потенциального шага и если он не очень, то откатываться обратно и модифицировать шаг. Там очень много всяких фич, если хочешь без особой детальности разобраться, то в Николенко есть глава по этому поводу, он там и ссылки даёт на отдельные ресурсы, чтобы разобраться глубже.
![FeoNoktis](http://img0.reactor.cc/images/default_avatar_50.gif)
Кстати, обжектив того же SVM вполне себе convex (даже с soft margin), можно найти оптимальное решение.
![Remper](http://img0.reactor.cc/images/default_avatar_50.gif)
Рисёчер с PhD в ML отвечает:
В ML приходят люди с разными бекграундами (видел лингвистов, социологов помимо прочего) и с разными целями, на мой взгляд это нормально что очень много людей не знают что под капотом и просто применяют готовые вещи. ML как и любая новая технология будет всё больше коммодитизироваться и я думаю через пару лет любой школьник у себя со смартфона AutoMLем сможет построить классификатор предсказывающий вероятность появления двойки в дневнике. Так же как сейчас коммодитизировалось программирование: каждый школьник может на Swift себе в интерактивном режиме накодить какую-нибудь приложуху, а какие-нибудь геймдизайнеры с базовыми знаниями Lua могут разрабатывать достаточно крупные и интересные игры.
Как бы ML, как и любая сложная область математики и Computer Science необъятна и работы для тех кто действительно шарит хватит ещё лет на сто минимум. С соответствующей зарплатой.
В ML приходят люди с разными бекграундами (видел лингвистов, социологов помимо прочего) и с разными целями, на мой взгляд это нормально что очень много людей не знают что под капотом и просто применяют готовые вещи. ML как и любая новая технология будет всё больше коммодитизироваться и я думаю через пару лет любой школьник у себя со смартфона AutoMLем сможет построить классификатор предсказывающий вероятность появления двойки в дневнике. Так же как сейчас коммодитизировалось программирование: каждый школьник может на Swift себе в интерактивном режиме накодить какую-нибудь приложуху, а какие-нибудь геймдизайнеры с базовыми знаниями Lua могут разрабатывать достаточно крупные и интересные игры.
Как бы ML, как и любая сложная область математики и Computer Science необъятна и работы для тех кто действительно шарит хватит ещё лет на сто минимум. С соответствующей зарплатой.
![Remper](http://img0.reactor.cc/images/default_avatar_50.gif)
Ну что, полетели в телеграмм? (+375 (29) 333 06 30)
![FeoNoktis](http://img0.reactor.cc/images/default_avatar_50.gif)
у меня до сих пор бомбит от этой рекламы Gillette
![mrbacknotblack](http://img0.reactor.cc/images/default_avatar_50.gif)
А у меня нет. Я адблок ставил не для того, что-бы рекламу на ютубе смотреть.
![it-юмор,geek,Прикольные гаджеты. Научный, инженерный и айтишный юмор Доктор, в последнее время я очеь переживаю за будущее западной цивилизации. Леваки, СЖВ, фемки отбирают у нас всё! Как остановить экспансию собора?
Какие нахуй леваки и сжв, поехавший? Ты в Барнауле живёшь!
БАРНАУЛ!
АЛТАЙСКИЙ
КРАЙ!](http://img1.reactor.cc/pics/comment/it-%D1%8E%D0%BC%D0%BE%D1%80-geek-3253657.jpeg)
Но ведь эта фигня напрямую влияет на наши страны. Вот у нас, к примеру, приняли этот дибильный закон про нотариальный договор на секс (даже между супругами)
думай че делаешь, сейчас найдутся ипанарии которые полезут смотреть от какой же рекламы у тебя там чето бомбит и по итогу ты сам станешь рекламой
Отличный комментарий!