Различия

Показаны различия между двумя версиями страницы.

Ссылка на это сравнение

ml:glossary-dss [2024/04/09 11:20] (текущий)
admin создано
Строка 1: Строка 1:
 +====== Глоссарий: Математические и инструментальные методы поддержки принятия решений ======
  
 +**Анализ временных рядов** - методика составления прогноза на основе анализа данных за прошлые периоды, представленных в виде временных рядов. В рамках этой
 +методики выделяются сезонная вариация и общий тренд, что помогает проводить прогнозирование динамики ряда в будущем, при условии неизменности лежащих в основе
 +прогноза условий и допущений.
 +
 +**Анкета** - набор вопросов, составленных по определенной программе, на которые должны быть получены ответы от респондентов (участников исследования).
 +
 +**Аномальная вариация** - неестественно большое отклонение временного ряда, влияющие на значение переменной на единичное наблюдение.
 +
 +**Временной ряд** - это ряд наблюдений, проводящихся регулярно через равные интервалы времени. Таблица данных, показывающих значения переменной,
 +полученные через определенные равные интервалы времени.
 +
 +**Аксон** - это длинный отросток нервной клетки, по которому нервные импульсы идут от тела клетки к иннервируемым органам и другим нервным клеткам.
 +
 +**Активационная функция** / **Функция активации** - это функция, определяющая выходной сигнал на основе трансформации входного сигнала: выход = функция активации (вход).
 +
 +**Активация нейрона** - это применение к нему нелинейной функции.
 +
 +**Архитектура сети** - это совокупность значимых параметров сети, определяющих её назначение и возможности, среди которых: структура и конфигурация слоев нейронной сети а также характер взаимодействия между слоями.
 +
 +** Валидационная выборка** – отложенный набор данных, на котором тестируется качество финальной архитектуры сети, после подбора наилучших параметров.
 +
 +**Взвешенная сумма** - это сложение величин, предварительно умноженных на некоторое значение (т.н. вес).
 +
 +**Высокоуровневый признак** - признак, объединяющий низкоуровневые признаки в группы со схожими свойствами (например, если сеть распознает кошек и собак,
 +то "овал" - низкоуровневый признак, а "ухо" или "лапа" - высокоуровневый.
 +
 +**Выход нейронной сети** — это итоговое значение функций активации, применённых к взвешенным суммам нейронной сети.
 +
 +**Генеративная нейронная сеть** (генеративно-состязательная сеть) - англ. Generative adversarial network, сокращённо GAN, — алгоритм машинного обучения без учителя,
 +построенный на комбинации из двух нейронных сетей, одна из которых (сеть G) генерирует образцы, а другая (сеть D) старается отличить правильные («подлинные») образцы от неправильных.
 +Так как сети G и D имеют противоположные цели — создать образцы и отбраковать образцы — между ними возникает Антагонистическая игра.
 +
 +**Генетический алгоритм** - это эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём случайного подбора, комбинирования и
 +вариации искомых параметров с использованием механизмов, аналогичных естественному отбору в природе.
 +
 +**Генерация** - это тип задачи, при котором нейронная сеть создает контент самого разного типа, начиная с текстов, изображений и аудио, и заканчивая
 +"раскрашиванием" черно-белых фильмов и "изменением" сезона в видеороликах.
 +
 +**Дендрит** - разветвлённый отросток нейрона, который получает информацию через химические (или электрические) синапсы от аксонов (или дендритов и сомы) других нейронов и передаёт
 +её через электрический сигнал телу нейрона.
 +
 +**Зашумленные данные** - данные с наличием шума (случайных возмущений) разной степени выраженности, способными негативно повлиять на качество обучения нейронной сети.
 +Также под словом "шум" понимают случайные признаки, не отражающие суть изучаемого явления, но которые могут повлиять на работу сети.
 +
 +**Интеллектуальная задача** - задача, решение которой происходит не по заранее определенному, точному алгоритму, а благодаря самообучению как свойству обучающейся системы.
 +
 +**Искусственный нейрон** (математический нейрон Маккаллока — Питтса, формальный нейрон) - узел искусственной нейронной сети, являющийся упрощённой моделью естественного нейрона.
 +Математически, искусственный нейрон обычно представляют как некоторую нелинейную функцию от единственного аргумента — линейной комбинации всех входных сигналов.
 +Данную функцию называют функцией активации или функцией срабатывания, передаточной функцией.
 +
 +**Классификация** - тип задачи, при котором нейронная сеть относит тот или иной объект к одному из классов на основе анализа его признаков. Бинарная классификация - классификация с двумя классами. Multilabeling – вид классификации, при котором классифицируемый объект может относится более чем к одному классу одновременно.
 +
 +**Кластеризация** / **Обучение без учителя** - тип задачи, при котором происходит разбиение выборки на группы схожих объектов, при этом испытуемая система спонтанно обучается
 +выполнять поставленную задачу без вмешательства со стороны экспериментатора или среды.
 +
 +**Метод обратного распространения ошибки** (Back Propagation) - модификация метода классического градиентного спуска, метод обновления весов нейронной сети, при котором распространение сигналов ошибки происходит от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы.
 +
 +**Нейромедиаторы** - биологически активные химические вещества, посредством которых осуществляется передача электрохимического импульса от нервной клетки через
 +синаптическое пространство между нейронами, а также, например, от нейронов к мышечной ткани или железистым клеткам.
 +
 +**Низкоуровневый признак** - наиболее элементарный признак, характеризующий объект (например, если сеть распознает кошек и собак, то "ухо" или "лапа" - это более высокоуровневые признаки, а "овал" - более низкоуровневый.
 +
 +**Нормализация данных** - одна из форма предварительной обработки данных, цель которой заключается в том, чтобы привести их к виду, наиболее отвечающему характеру их дальнейшего использования. Типичная нормализация - это "выравнивание" данных для приведения их значений к диапазону от 0 до 1.
 +
 +**Обучающая выборка** - данные, на которых происходит обучение нейронной сети.
 +
 +**Обучение с учителем** — один из способов машинного обучения, в ходе которого испытуемая система обучается с помощью примеров «стимул-реакция». Между входами и эталонными выходами (стимул-реакция) может существовать некоторая зависимость, но она неизвестна. Известна только конечная совокупность прецедентов — пар «стимул-реакция», называемая обучающей выборкой.
 +
 +**Обучение с подкреплением** (reinforcement learning) — один из способов машинного обучения, в ходе которого испытуемая система обучается, взаимодействуя с некоторой средой.
 +Обучение происходит за счет получения/не получения награды от среды в процессе взаимодействия.
 +
 +**Поверхность ошибки** — это геометрическая форма функции потерь, вычисляемая в каждой точке.
 +
 +**Полносвязная нейронная сеть** - это сеть, в которой каждый нейрон связан со всеми остальными нейронами, находящимися в соседних слоях.
 +
 +**Последовательная сеть прямого распространения** (FFNN, Feed-Forwarded Neural Net) - нейронная сеть, в которой все связи направлены только от входа сети к ее выходу
 +(без операций распараллеливания или циклов).
 +
 +**Предварительная обработка данных** - важный шаг в процессе интеллектуального анализа данных. Результатом предварительной обработки данных является конечный тренировочный набор.
 +
 +**Принцип рецептивных полей** - это биологический принцип, при котором множество сенсорных рецепторов образуют синапсы с единственным нейроном и они совместно формируют рецептивное
 +поле этого нейрона.
 +
 +**Прогнозирование временных рядов** - это тип задачи, при котором обладая упорядоченным по времени рядом значений, нам нужно понять, какие значения будут идти в нем дальше.
 +
 +**Регрессия** - задача оценки истинного (числового) значения некоторой независимой переменной (выход нейронной сети) от совокупности зависимых переменных (вход сети).
 +
 +**Рекуррентная нейронная сеть** - это сеть с памятью, хранящая информацию о том, что в ней происходило в прошлые итерации обучения. Достигается это благодаря тому, что каждый
 +нейрон в такой сети имеет связь с самим собой.
 +
 +**Сверточная нейронная сеть** - это сеть, работающая по принципу рецептивных полей, суть которого заключается в том, что каждый нейрон последующего следующего слоя "смотрит"
 +на небольшой кусочек (например, 3 на 3 пикселя) предыдущего слоя.
 +
 +**Сеть прямого распространения** (Feedforward) - это сеть, в которой все связи направлены строго от входных нейронов к выходным.
 +
 +**Сигмоидальные функции** - функции, входящие в семейство функций класса Сигмоид. Сигмоида - это гладкая монотонная возрастающая нелинейная функция, имеющая форму буквы "S", которая часто применяется для "сглаживания" значений некоторой величины.
 +
 +**Синапс** - место контакта между двумя нейронами или между нейроном и получающей сигнал эффекторной клеткой. Служит для передачи нервного импульса между двумя клетками,
 +причём в ходе синаптической передачи амплитуда и частота сигнала могут регулироваться.
 +
 +**Слой нейронной сети** - группа нейронов, находящихся на одном уровне иерархии, имеющих общий вход/выход и функцию активации.
 +
 +**Скрытый слой** - слой нейронной сети, находящийся между её входным и выходным слоями.
 +
 +**Среднеквадратичная ошибка** - вариант наиболее часто используемой функции потерь (особенно в задачах регрессии), вычисляется как квадрат разницы между «истинным» значением
 +целевой переменной и предсказанным сетью, усредняется в рамках одного batch_size.
 +
 +**Тестовая выборка** - данные, на которых идет проверка качества работы ранее обученной сети.
 +
 +===== Ссылки =====
 +
 +  * [[https://e-edu.rosnou.ru/pluginfile.php/466931/mod_resource/content/0/%D0%93%D0%BB%D0%BE%D1%81%D1%81%D0%B0%D1%80%D0%B8%D0%B9.pdf|Глоссарий.pdf]]
Печать/экспорт