Различия

Показаны различия между двумя версиями страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Последняя версия Следующая версия справа и слева
ml:glossary [2024/04/09 06:07]
admin
ml:glossary [2024/04/09 11:20]
admin
Строка 1: Строка 1:
 ====== Глоссарий ====== ====== Глоссарий ======
  
-**Анализ временных рядов** - методика составления прогноза на основе анализа данных за прошлые периоды, представленных в виде временных рядов. В рамках этой 
-методики выделяются сезонная вариация и общий тренд, что помогает проводить прогнозирование динамики ряда в будущем, при условии неизменности лежащих в основе 
-прогноза условий и допущений. 
- 
-**Анкета** - набор вопросов, составленных по определенной программе, на которые должны быть получены ответы от респондентов (участников исследования). 
- 
-**Аномальная вариация** - неестественно большое отклонение временного ряда, влияющие на значение переменной на единичное наблюдение. 
- 
-**Временной ряд** - это ряд наблюдений, проводящихся регулярно через равные интервалы времени. Таблица данных, показывающих значения переменной, 
-полученные через определенные равные интервалы времени. 
- 
-**Аксон** - это длинный отросток нервной клетки, по которому нервные импульсы идут от тела клетки к иннервируемым органам и другим нервным клеткам. 
- 
-**Активационная функция** / **Функция активации** - это функция, определяющая выходной сигнал на основе трансформации входного сигнала: выход = функция активации (вход). 
- 
-**Активация нейрона** - это применение к нему нелинейной функции. 
- 
-**Архитектура сети** - это совокупность значимых параметров сети, определяющих её назначение и возможности, среди которых: структура и конфигурация слоев нейронной сети а также характер взаимодействия между слоями. 
- 
-** Валидационная выборка** – отложенный набор данных, на котором тестируется качество финальной архитектуры сети, после подбора наилучших параметров. 
- 
-**Взвешенная сумма** - это сложение величин, предварительно умноженных на некоторое значение (т.н. вес). 
- 
-**Высокоуровневый признак** - признак, объединяющий низкоуровневые признаки в группы со схожими свойствами (например, если сеть распознает кошек и собак, 
-то "овал" - низкоуровневый признак, а "ухо" или "лапа" - высокоуровневый. 
- 
-**Выход нейронной сети** — это итоговое значение функций активации, применённых к взвешенным суммам нейронной сети. 
- 
-**Генеративная нейронная сеть** (генеративно-состязательная сеть) - англ. Generative adversarial network, сокращённо GAN, — алгоритм машинного обучения без учителя, 
-построенный на комбинации из двух нейронных сетей, одна из которых (сеть G) генерирует образцы, а другая (сеть D) старается отличить правильные («подлинные») образцы от неправильных. 
-Так как сети G и D имеют противоположные цели — создать образцы и отбраковать образцы — между ними возникает Антагонистическая игра. 
- 
-**Генетический алгоритм** - это эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём случайного подбора, комбинирования и 
-вариации искомых параметров с использованием механизмов, аналогичных естественному отбору в природе. 
- 
-**Генерация** - это тип задачи, при котором нейронная сеть создает контент самого разного типа, начиная с текстов, изображений и аудио, и заканчивая 
-"раскрашиванием" черно-белых фильмов и "изменением" сезона в видеороликах. 
- 
-**Дендрит** - разветвлённый отросток нейрона, который получает информацию через химические (или электрические) синапсы от аксонов (или дендритов и сомы) других нейронов и передаёт 
-её через электрический сигнал телу нейрона. 
- 
-**Зашумленные данные** - данные с наличием шума (случайных возмущений) разной степени выраженности, способными негативно повлиять на качество обучения нейронной сети. 
-Также под словом "шум" понимают случайные признаки, не отражающие суть изучаемого явления, но которые могут повлиять на работу сети. 
- 
-**Интеллектуальная задача** - задача, решение которой происходит не по заранее определенному, точному алгоритму, а благодаря самообучению как свойству обучающейся системы. 
- 
-**Искусственный нейрон** (математический нейрон Маккаллока — Питтса, формальный нейрон) - узел искусственной нейронной сети, являющийся упрощённой моделью естественного нейрона. 
-Математически, искусственный нейрон обычно представляют как некоторую нелинейную функцию от единственного аргумента — линейной комбинации всех входных сигналов. 
-Данную функцию называют функцией активации или функцией срабатывания, передаточной функцией. 
- 
-**Классификация** - тип задачи, при котором нейронная сеть относит тот или иной объект к одному из классов на основе анализа его признаков. Бинарная классификация - классификация с двумя классами. Multilabeling – вид классификации, при котором классифицируемый объект может относится более чем к одному классу одновременно. 
- 
-**Кластеризация** / **Обучение без учителя** - тип задачи, при котором происходит разбиение выборки на группы схожих объектов, при этом испытуемая система спонтанно обучается 
-выполнять поставленную задачу без вмешательства со стороны экспериментатора или среды. 
- 
-**Метод обратного распространения ошибки** (Back Propagation) - модификация метода классического градиентного спуска, метод обновления весов нейронной сети, при котором распространение сигналов ошибки происходит от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. 
- 
-**Нейромедиаторы** - биологически активные химические вещества, посредством которых осуществляется передача электрохимического импульса от нервной клетки через 
-синаптическое пространство между нейронами, а также, например, от нейронов к мышечной ткани или железистым клеткам. 
- 
-**Низкоуровневый признак** - наиболее элементарный признак, характеризующий объект (например, если сеть распознает кошек и собак, то "ухо" или "лапа" - это более высокоуровневые признаки, а "овал" - более низкоуровневый. 
- 
-**Нормализация данных** - одна из форма предварительной обработки данных, цель которой заключается в том, чтобы привести их к виду, наиболее отвечающему характеру их дальнейшего использования. Типичная нормализация - это "выравнивание" данных для приведения их значений к диапазону от 0 до 1. 
- 
-**Обучающая выборка** - данные, на которых происходит обучение нейронной сети. 
- 
-**Обучение с учителем** — один из способов машинного обучения, в ходе которого испытуемая система обучается с помощью примеров «стимул-реакция». Между входами и эталонными выходами (стимул-реакция) может существовать некоторая зависимость, но она неизвестна. Известна только конечная совокупность прецедентов — пар «стимул-реакция», называемая обучающей выборкой. 
- 
-**Обучение с подкреплением** (reinforcement learning) — один из способов машинного обучения, в ходе которого испытуемая система обучается, взаимодействуя с некоторой средой. 
-Обучение происходит за счет получения/не получения награды от среды в процессе взаимодействия. 
- 
-**Поверхность ошибки** — это геометрическая форма функции потерь, вычисляемая в каждой точке. 
- 
-**Полносвязная нейронная сеть** - это сеть, в которой каждый нейрон связан со всеми остальными нейронами, находящимися в соседних слоях. 
- 
-**Последовательная сеть прямого распространения** (FFNN, Feed-Forwarded Neural Net) - нейронная сеть, в которой все связи направлены только от входа сети к ее выходу 
-(без операций распараллеливания или циклов). 
- 
-**Предварительная обработка данных** - важный шаг в процессе интеллектуального анализа данных. Результатом предварительной обработки данных является конечный тренировочный набор. 
- 
-**Принцип рецептивных полей** - это биологический принцип, при котором множество сенсорных рецепторов образуют синапсы с единственным нейроном и они совместно формируют рецептивное 
-поле этого нейрона. 
- 
-**Прогнозирование временных рядов** - это тип задачи, при котором обладая упорядоченным по времени рядом значений, нам нужно понять, какие значения будут идти в нем дальше. 
- 
-**Регрессия** - задача оценки истинного (числового) значения некоторой независимой переменной (выход нейронной сети) от совокупности зависимых переменных (вход сети). 
- 
-**Рекуррентная нейронная сеть** - это сеть с памятью, хранящая информацию о том, что в ней происходило в прошлые итерации обучения. Достигается это благодаря тому, что каждый 
-нейрон в такой сети имеет связь с самим собой. 
- 
-**Сверточная нейронная сеть** - это сеть, работающая по принципу рецептивных полей, суть которого заключается в том, что каждый нейрон последующего следующего слоя "смотрит" 
-на небольшой кусочек (например, 3 на 3 пикселя) предыдущего слоя. 
- 
-**Сеть прямого распространения** (Feedforward) - это сеть, в которой все связи направлены строго от входных нейронов к выходным. 
- 
-**Сигмоидальные функции** - функции, входящие в семейство функций класса Сигмоид. Сигмоида - это гладкая монотонная возрастающая нелинейная функция, имеющая форму буквы "S", которая часто применяется для "сглаживания" значений некоторой величины. 
- 
-**Синапс** - место контакта между двумя нейронами или между нейроном и получающей сигнал эффекторной клеткой. Служит для передачи нервного импульса между двумя клетками, 
-причём в ходе синаптической передачи амплитуда и частота сигнала могут регулироваться. 
- 
-**Слой нейронной сети** - группа нейронов, находящихся на одном уровне иерархии, имеющих общий вход/выход и функцию активации. 
- 
-**Скрытый слой** - слой нейронной сети, находящийся между её входным и выходным слоями. 
- 
-**Среднеквадратичная ошибка** - вариант наиболее часто используемой функции потерь (особенно в задачах регрессии), вычисляется как квадрат разницы между «истинным» значением 
-целевой переменной и предсказанным сетью, усредняется в рамках одного batch_size. 
- 
-**Тестовая выборка** - данные, на которых идет проверка качества работы ранее обученной сети. 
  
 ===== Ссылки ===== ===== Ссылки =====
  
-  * [[https://e-edu.rosnou.ru/pluginfile.php/466931/mod_resource/content/0/%D0%93%D0%BB%D0%BE%D1%81%D1%81%D0%B0%D1%80%D0%B8%D0%B9.pdf|Глоссарий.pdf]]+  * [[https://e-edu.rosnou.ru/pluginfile.php/467007/mod_resource/content/0/%D0%93%D0%BB%D0%BE%D1%81%D1%81%D0%B0%D1%80%D0%B8%D0%B9.pdf|Глоссарий.pdf]]
Печать/экспорт