Mail.ruПочтаМой МирОдноклассникиВКонтактеИгрыЗнакомстваНовостиКалендарьОблакоЗаметкиВсе проекты

Jupyter Notebook Практическое занятие 11. Обучение без учителя. Снижение размерности

Ярослав Дробицко Ученик (92), открыт 4 недели назад
Написать коды
1.Разделить выборки на train и test, test_size = 0.3, random_state = 22
2.Построить решающее дерево max_depth = 3 и random_state = 22. Посчитать метрику точности.Предварительно также необходимо разделить на обучающую и тестовую выборки.
3.При помощи components объекта PCA для первой компоненты определить переменную, которая дает наибольший вклад (максимальное значение коэффициента). В поле ответа ввести название как в feature_names исходного словаря. Например, petal width (cm) если это четвертый признак
4.Необходимо найти минимально достаточное количество компонент PCA для набора данных MNIST, чтобы удовлетворить условию сохранения не менее 90% дисперсии. Для решения можно создать объект PCA без параметра n_componenets и далее, анализируя свойство explained_variance_ratio_, получить необходимо количество компонент.
5.Построить алгоритм классификации для решения задачи классификации MNIST. Обучить модель на исходных данных и далее на данных, которые получатся после снижения размерности при помощи PCA и t-SNE. Какой алгоритм снижения дает лучшие метрики? Оцените, какое количество времени требуется для препроцессингом PCA и t-SNE.

И ответить на вопросы:
1.Наиболее значимый признак для датасета Ирисы в первой компоненте PCA:
2.Сколько компонент PCA минимально необходимо, чтобы объяснить не менее 90% дисперсии?
0 ответов
Похожие вопросы