Здравствуйте. Я немного не догоняю, почему в формуле прироста информации энтропия правой подвыбоки =1, если мы посчитали ее =0, ведь там все единицы, абсолютный порядок. Почему тогда в формулу мы вводим ее как 1 и еще нормируем 2/5*1 ? (это на 12 й мнуте) При этом итог получается правильным 0.419 .....опечатака однако )))
@machine_learrrning
2 жыл бұрын
Действительно, очепятка, там не 1, а 0 Главное, что прирост информации сам подсчитан правильно :)
@pavelkoloyan7187
Жыл бұрын
Спасибо одно из лучших объяснений.👍
@machine_learrrning
Жыл бұрын
Спасибо за приятные слова 😊
@Alulisa
2 жыл бұрын
Очень понятное объяснение, спасибо большое
@achmedzhanov_nail
7 ай бұрын
На 12:03 энтропия правой выборки 0, в формулу вычисления Q подставляется 1. ошибка?
@samSosiska
4 ай бұрын
По сути, да
@eightuponatime
8 күн бұрын
уф чуть не умер от панички, что что-то пропустил
@mb19127
Ай бұрын
17:16 Почему разбиение было на [0, 3] и [1, 1], разве не лучше было бы на [0, 4] и [1, 0]? Может ли не быть такого вопроса, который отделял бы только эту единственную запись?
@mb19127
Ай бұрын
Ладно, действительно может. Ведь значение может быть не крайнем. Чтобы точно отделить одно значение нужно два разбиения
@danyadetunm7609
Жыл бұрын
А если не задавать random_state, то чем обусловлено различие точности обученной модели, если обучать ее на одних и тех же данных, и проверять результат тоже на одинаковых данных?
@machine_learrrning
Жыл бұрын
Различия обусловлены случайностью, может повезти так, что выборка на тесте будет легче, поэтому метрика будет лучше, а может наоборот. И чтобы сравнивать именно модель, а не удачу, то и стоит фиксировать random_state
@АртёмКомарницкий-я9ь
2 жыл бұрын
Спасибо большое, всегда с нетерпением жду видео. Планируете серию разборов алгоритмов, например SVM(SVC, SVR), KNN?
@machine_learrrning
2 жыл бұрын
Да, конечно, планирую и эти алгоритмы разобрать :)
@machine_learrrning
2 жыл бұрын
Вот и видео по KNN можете изучать: kzitem.info/news/bejne/zpWYvZyFhaSQi4I
@beast0608dihdbdn
Жыл бұрын
Вы очень крутая, спасибо!
@machine_learrrning
Жыл бұрын
Рада помочь в изучении МЛ! 😸
@gobals8925
2 жыл бұрын
Большое спасибо за видео. Я правильно понял, что алгоритм считает IG по всем значениям фичей, кроме тех, которые не позволяют разбить на две подвыборки?
@machine_learrrning
2 жыл бұрын
Пожалуйста! Да, всё правильно поняли, перебираются все возможные варианты разбиения на две подвыборки
@LS-oh6po
Жыл бұрын
Очень интересно по технике, но есть вопрос по сути. Для чего в принципе составляется это дерево решений? Ищется какое-то оптимальное значение? То есть какая изначально задача? Спасибо.
@kochkindi
2 жыл бұрын
Спасибо!!
@ИринаРадкевич-у6ц
10 ай бұрын
Спасибо! Крутое объяснение!
@goharavagova6845
Жыл бұрын
огромное спасибо
@machine_learrrning
Жыл бұрын
Всегда пожалуйста 😸
@Борисыч-в9м
Жыл бұрын
Я только не понял на 12:23 почему энтропия правой выборки внезапно стала равна 1 в формуле прироста информации?
@machine_learrrning
Жыл бұрын
Это опечатка, должен быть, конечно же, 0. Главное что значение прироста посчитано верно
@trollface4783
10 ай бұрын
Спасибо
@ДмитрийСвидовый
Жыл бұрын
Подскажите, как работает алгоритм с категориальными данными?
@bobkr4725
Жыл бұрын
Полагаю, что через get_dummies - как и многие другие алгорииы
@mrhiesenberg5385
2 жыл бұрын
Допустим у нас есть задача идентификации человека по его фотографии. С точки зрения машинного обучения - это задача многоклассовой классификации изображений. При этом, в тестовой выборке могут содержаться изображения людей, которых не было в обучающем наборе и такие фотографии нужно как-то браковать. В случае с логистической/softmax регрессией - можно задать порог по принадлежности объекта тестовой выборки к классам обучающей. В случае с ближайшими соседями, этим порогом будет являться расстояние между объектами. А что будет является порогом для дерева?)
@machine_learrrning
2 жыл бұрын
Для деревьев такой же порог можно задать, как и с логистической регрессией - порог по предсказанным вероятностям. Но хочу еще добавить, что задачи, связанные с классификацией людей лучше решаются через сверточные нейронные сети, в частности через подход metric learning.
@mrhiesenberg5385
2 жыл бұрын
@@machine_learrrning, я пробовал решить эту задачу с помощью: метода главных компонент + метод ближайшего соседа/softmax регрессия, гистограмма направленных градиентов + метод ближайшего соседа/softmax регрессия, классификация карт признаков сверточной нейронной сети facenet + метод ближайшего соседа/softmax регрессия) Хотел опробовать деревянные алгоритмы)
Пікірлер: 32