Различия
Показаны различия между двумя версиями страницы.
Предыдущая версия справа и слева Предыдущая версия | Последняя версия Следующая версия справа и слева | ||
ml:glossary [2024/04/09 06:07] admin |
ml:glossary [2024/04/09 11:20] admin |
||
---|---|---|---|
Строка 1: | Строка 1: | ||
====== Глоссарий ====== | ====== Глоссарий ====== | ||
- | **Анализ временных рядов** - методика составления прогноза на основе анализа данных за прошлые периоды, | ||
- | методики выделяются сезонная вариация и общий тренд, что помогает проводить прогнозирование динамики ряда в будущем, | ||
- | прогноза условий и допущений. | ||
- | |||
- | **Анкета** - набор вопросов, | ||
- | |||
- | **Аномальная вариация** - неестественно большое отклонение временного ряда, влияющие на значение переменной на единичное наблюдение. | ||
- | |||
- | **Временной ряд** - это ряд наблюдений, | ||
- | полученные через определенные равные интервалы времени. | ||
- | |||
- | **Аксон** - это длинный отросток нервной клетки, | ||
- | |||
- | **Активационная функция** / **Функция активации** - это функция, | ||
- | |||
- | **Активация нейрона** - это применение к нему нелинейной функции. | ||
- | |||
- | **Архитектура сети** - это совокупность значимых параметров сети, определяющих её назначение и возможности, | ||
- | |||
- | ** Валидационная выборка** – отложенный набор данных, | ||
- | |||
- | **Взвешенная сумма** - это сложение величин, | ||
- | |||
- | **Высокоуровневый признак** - признак, | ||
- | то " | ||
- | |||
- | **Выход нейронной сети** — это итоговое значение функций активации, | ||
- | |||
- | **Генеративная нейронная сеть** (генеративно-состязательная сеть) - англ. Generative adversarial network, сокращённо GAN, — алгоритм машинного обучения без учителя, | ||
- | построенный на комбинации из двух нейронных сетей, одна из которых (сеть G) генерирует образцы, | ||
- | Так как сети G и D имеют противоположные цели — создать образцы и отбраковать образцы — между ними возникает Антагонистическая игра. | ||
- | |||
- | **Генетический алгоритм** - это эвристический алгоритм поиска, | ||
- | вариации искомых параметров с использованием механизмов, | ||
- | |||
- | **Генерация** - это тип задачи, | ||
- | " | ||
- | |||
- | **Дендрит** - разветвлённый отросток нейрона, | ||
- | её через электрический сигнал телу нейрона. | ||
- | |||
- | **Зашумленные данные** - данные с наличием шума (случайных возмущений) разной степени выраженности, | ||
- | Также под словом " | ||
- | |||
- | **Интеллектуальная задача** - задача, | ||
- | |||
- | **Искусственный нейрон** (математический нейрон Маккаллока — Питтса, | ||
- | Математически, | ||
- | Данную функцию называют функцией активации или функцией срабатывания, | ||
- | |||
- | **Классификация** - тип задачи, | ||
- | |||
- | **Кластеризация** / **Обучение без учителя** - тип задачи, | ||
- | выполнять поставленную задачу без вмешательства со стороны экспериментатора или среды. | ||
- | |||
- | **Метод обратного распространения ошибки** (Back Propagation) - модификация метода классического градиентного спуска, | ||
- | |||
- | **Нейромедиаторы** - биологически активные химические вещества, | ||
- | синаптическое пространство между нейронами, | ||
- | |||
- | **Низкоуровневый признак** - наиболее элементарный признак, | ||
- | |||
- | **Нормализация данных** - одна из форма предварительной обработки данных, | ||
- | |||
- | **Обучающая выборка** - данные, | ||
- | |||
- | **Обучение с учителем** — один из способов машинного обучения, | ||
- | |||
- | **Обучение с подкреплением** (reinforcement learning) — один из способов машинного обучения, | ||
- | Обучение происходит за счет получения/ | ||
- | |||
- | **Поверхность ошибки** — это геометрическая форма функции потерь, | ||
- | |||
- | **Полносвязная нейронная сеть** - это сеть, в которой каждый нейрон связан со всеми остальными нейронами, | ||
- | |||
- | **Последовательная сеть прямого распространения** (FFNN, Feed-Forwarded Neural Net) - нейронная сеть, в которой все связи направлены только от входа сети к ее выходу | ||
- | (без операций распараллеливания или циклов). | ||
- | |||
- | **Предварительная обработка данных** - важный шаг в процессе интеллектуального анализа данных. Результатом предварительной обработки данных является конечный тренировочный набор. | ||
- | |||
- | **Принцип рецептивных полей** - это биологический принцип, | ||
- | поле этого нейрона. | ||
- | |||
- | **Прогнозирование временных рядов** - это тип задачи, | ||
- | |||
- | **Регрессия** - задача оценки истинного (числового) значения некоторой независимой переменной (выход нейронной сети) от совокупности зависимых переменных (вход сети). | ||
- | |||
- | **Рекуррентная нейронная сеть** - это сеть с памятью, | ||
- | нейрон в такой сети имеет связь с самим собой. | ||
- | |||
- | **Сверточная нейронная сеть** - это сеть, работающая по принципу рецептивных полей, суть которого заключается в том, что каждый нейрон последующего следующего слоя " | ||
- | на небольшой кусочек (например, | ||
- | |||
- | **Сеть прямого распространения** (Feedforward) - это сеть, в которой все связи направлены строго от входных нейронов к выходным. | ||
- | |||
- | **Сигмоидальные функции** - функции, | ||
- | |||
- | **Синапс** - место контакта между двумя нейронами или между нейроном и получающей сигнал эффекторной клеткой. Служит для передачи нервного импульса между двумя клетками, | ||
- | причём в ходе синаптической передачи амплитуда и частота сигнала могут регулироваться. | ||
- | |||
- | **Слой нейронной сети** - группа нейронов, | ||
- | |||
- | **Скрытый слой** - слой нейронной сети, находящийся между её входным и выходным слоями. | ||
- | |||
- | **Среднеквадратичная ошибка** - вариант наиболее часто используемой функции потерь (особенно в задачах регрессии), | ||
- | целевой переменной и предсказанным сетью, усредняется в рамках одного batch_size. | ||
- | |||
- | **Тестовая выборка** - данные, | ||
===== Ссылки ===== | ===== Ссылки ===== | ||
- | * [[https:// | + | * [[https:// |