Потрясающая подача материала и отличная инфографика
@pashamorozov8257
5 ай бұрын
Спасибо большое. Ооооочень доступно и понятно, как и все видеоролики. Вы талант!
@pavelkoloyan7187
Жыл бұрын
Спасибо. Очень понятно объясняешь. Смотрю твои видео для закрепления материала. Если, что то не догоняю после твоих видео все становиться на места). Про расчет градиента очень бы хотелось послушать. Тема довольно важная кажеться😃👍
@poigrushkin9433
Жыл бұрын
Ура, жду следующее видео, это было прекрасным
@machine_learrrning
Жыл бұрын
Огромное спасибо за приятные слова! 😊 Уже совсем скоро, а точнее в субботу выйдет видео про реализацию логистической регрессии
@mariakupfer1240
Жыл бұрын
О Боже, я наконец-то всё поняла! Спасибо большое! Я правда уже долгое время не могла понять, что такое Правдоподобие и как оно связано с Логистической регрессией! Пошла смотреть другие ваши видео 😊
@petrgolovnin1992
Жыл бұрын
Юлия, благодарю за урок! Для чего нужно делать градиентный спуск из logloss и как его делать? Будет супер, если такой урок сделаете)
@АртемЕрохин-б7с
Жыл бұрын
Как всегда, отличное объяснение! Спасибо!
@leshamas_
Жыл бұрын
Большое спасибо за разъяснения! Видео очень ёмкое и подробное для каких-то 20 минут =)
@НиколайЛощинин-м7ч
Ай бұрын
Я достиг катарсиса, спасибо
@Putinka1000
Жыл бұрын
Хотелось бы ссылку на donation alerts, яндекс кошелек и т.п., чтобы иметь возможность единоразово отблагодарить без регистрации. За видео спасибо.
@machine_learrrning
Жыл бұрын
А такая ссылка есть :) www.donationalerts.com/r/machine_learrrning Буду рада за поддержку!
@kosby5963
Жыл бұрын
Ты милашка) материал хороший, подписался.
@xandrviking1113
Ай бұрын
Спасибо. Хоть кто-то объяснил толком на графике 😊
@aly7401
Жыл бұрын
Спасибо огромное, это лучшее объяснение правдоподобия. А планируется ли видео по подробному разбору roc-auc?
@machine_learrrning
Жыл бұрын
Про ROC-AUC уже было видео: kzitem.info/news/bejne/12yGtntug5F2mqg
@aly7401
Жыл бұрын
@@machine_learrrning спасибо, не заметила его с первого раза
@Меняемпривычки
9 ай бұрын
Кто-нибудь объясните пожалуйста про логарифм на 12:21
@Tolyeschebudet
Жыл бұрын
👏👏 Отлично!
@ВикторияСазанчук
Жыл бұрын
Спасибо, очень доступно, ждём продолжение)
@machine_learrrning
Жыл бұрын
Пожалуйста! Продолжение будет завтра :)
@СтаниславКапралин
Жыл бұрын
Спасибо! Отличный урок!
@machine_learrrning
Жыл бұрын
Пожалуйста, очень рада, что урок понравился 😊
@Goressi
Жыл бұрын
Прекрасное объяснение, спасибо!
@tchntrn
Жыл бұрын
leaRRRning это отсылка на что?)) Клевый ролик)
@ds_sss_rank
Жыл бұрын
логлосс вроде это бинарная кросс-энтропия, а не кросс-энтропия 17:30 за видео спасибо
@Дмитрий-с2э2в
Жыл бұрын
Шикарно👏
@ИванЕвдокимов-л6ь
Жыл бұрын
Спасибо за контент! Видео помогают суммаризировать информацию - ставлю лайк под каждым вашим роликом) По данному видео возникло 3 вопроса: 1. Почему на 11:55 мы делим на N? Вроде как когда я изучал статистику, при поисках ОМП (оценок макс правдопод) мы не делили правдоподобие на N. 2. Совпадение ли, что на 17:10 формула похожа на энтропию Шеннона? Если нет, то как это связано?)) 3. Как получилась формула для градиента logloss? Вы сказали, что выведите формулу в след видео с реализацией - я поверхностно пробежался по таймкодам, но вывода не нашел(
@ИванЕвдокимов-л6ь
Жыл бұрын
И еще хочу уточнить - на 17:40 вы говорите про то, что мы ищем веса лог. регрессии через градиентный спуск. Но я тут прохожу параллейно логистическую регрессию с одним номинативными предикторами на курсе по статистике и там эти веса - логарифмы отношения шансов отнесения обьекта к классу (log[1ый класс/2ой класс]). Формула с логарифмами - это частный случай для номинативных переменных, который перестает работать в случае количественных переменных?..
@Roc19961
Жыл бұрын
А, так вот почему игноришь в лс, ты монтируешь
@ramzesi201
8 ай бұрын
одно из лучших видео что я видел
@LoSb_Krakov
Жыл бұрын
Я понял, что такое правдоподобие, ура!
@Midjt
8 ай бұрын
Браво! Прекрасное объяснение! 5+
@doniyordjon_pro
Жыл бұрын
Интересно, градиент из логлосса
@leowhynot
Жыл бұрын
есть видео про подробное получение градиента? хотелось бы еще узнать как высчитываются веса в sklearn модели logreg. неужели все через градиентный спуск?
@machine_learrrning
Жыл бұрын
Про градиентный спуск рассказываю и его показываю в видео про реализацию линейных моделей: 1. линейная регрессия kzitem.info/news/bejne/rIB3n3Vnqmudano 2. логистическая регрессия kzitem.info/news/bejne/06uMsWRtknhehYo В этих моделях могут использоваться другие методы оптимизации, более подробно стоит смотреть по агрументу solver в классах sklearn, к примеру, для логрег: scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html
@АлиСултанов-и8э
Жыл бұрын
Спасибо, а логистическая регрессия умеет работать с пропусками в данных ?
@machine_learrrning
Жыл бұрын
нет, к сожалению, такой способности у модели нет
@LoSb_Krakov
Жыл бұрын
Спасибо!
@iotone7525
Жыл бұрын
Кажется, что вы это объясняете это тем, кто это уже все знает, а я ничего не понял. Очень хочется все это понять и объяснить людям ПОНЯТНО, на примере. Просто начинаешь смотреть, какие-то непонятные обозначения. Скалярное произведение. Че за скалярное произведение, че это вообще такое и так все. ну нафиг.
@machine_learrrning
Жыл бұрын
Может быть для начала ознакомитесь с видео про линейную регрессию, где как раз-таки получаем это скалярное произведение? kzitem.info/news/bejne/rIB3n3Vnqmudano А если говорить кратко, то это перемножение коэффициентов (весов) на признаки (характеристики данных)
@iotone7525
Жыл бұрын
@@machine_learrrning Спасибо, попробую
@iotone7525
Жыл бұрын
Знаете как это выглядит моими глазами? Смотрю на график, там числа, че за числа, че это? непонятно. Ладно, поехали дальше. бла бла бла, Скалярное произведение. Че? Че это такое? Начинаешь гуглить. результат операции над двумя векторами, являющийся скаляром, то есть числом, не зависящим от выбора системы координат. Используется в определении длины векторов и угла между ними. Че? Че? Что это вообще значит? может если я прочитаю че такое вектор мне станет понятно? ок. математический объект, характеризующийся величиной и направлением. Что? че за объект? Что за величина? Направление в пространстве или где? Как это? ааааааа
@guts909
7 ай бұрын
Линейная алгебра в помощь. Там нет ничего сложно. Можете поизучать и потом намного понятнее станет всё
@osvab000
2 ай бұрын
Вот поэтому математику не любят. Там очень много такого, что можно не произносить и объяснить за секунды... Но речь загромождают не нужной терминологией! Мало людей могут объяснить сложное - простысми словами. Здесь я тоже ничего не понял про правдоподобие!
Пікірлер: 45