Основы теории нейронных сетей

Ответы на курс: Основы теории нейронных сетей

Что является входом искусственного нейрона?

Синапсами называются:

При каком алгоритме обучения обучающее множество состоит только из входных векторов?

«Обучение без учителя» характеризуется отсутствием:

Сетью без обратных связей называется сеть,

Какие сети характеризуются отсутствием памяти?

Что такое множество весовых значений нейрона?

«Обучение с учителем» это:

Что означает величина NET?

Матричное умножение XW вычисляет:

Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?

Выходом персептрона являются:

Что такое «неподатливое» множество образов?

Персептронной представимостью называется:

Какая из следующих функций непредставима персептроном?

Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?

Персептрон Розенблатта решает задачи:

Где в нейронной сети хранится информация о классификации образов?

Входом персептрона являются:

Сколько слоев имеет персептрон Розенблатта?

Способность персептрона решать определенную задачу называется:

Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?

Алгоритм обучения персептрона – это:

Теорема о двухслойности персептрона утверждает, что:

Обучением называют:

Нейронная сеть является обученной, если:

Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?

Если данный персептрон заменить персептроном с целочисленными весами, то:

Обучающей парой называется пара векторов,…

Входным слоем обобщенного многослойного персептрона называется:

Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?

Алгоритм обратного распространения заканчивает свою работу, когда:

Метод импульса заключается в:

Паралич сети может наступить, когда:

Если сеть имеет очень большое число нейронов в скрытых слоях, то:

Дискриминантной функцией называется:

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

Для решения любой задачи классификации достаточно иметь:

Сеть начала переобучаться, если:

Если сеть имеет небольшое число нейронов в скрытых слоях, то:

Если сеть содержит один промежуточный слой, то она моделирует:

Если размер шага очень мал, то:

Чем тестовое множество отличается от контрольного множества?

Если сеть содержит два промежуточных слоя, то она моделирует:

Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?

Механизм контрольной кросс-проверки заключается в:

Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является

Способна ли сеть встречного распространения аппроксимировать обратимые функции?

Обучение слоя Гроссберга является:

Обучение слоя Кохонена является:

«Победителем» считается нейрон Кохонена

Задачей слоя Кохонена является:

Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:

Если данный нейрон Кохонена является «победителем», то его значение OUT

При обучении слоя Кохонена подстраиваются весовые значения:

Метод аккредитации заключается в:

Целевой функцией называется:

Если случайные изменения весовых значений очень малы, то:

Стратегия избежания локальных минимумов при сохранении стабильности заключается в

Для какого алгоритма более опасен сетевой паралич?

Если случайные изменения весовых значений очень велики, то:

Какова роль искусственной температуры при Больцмановском обучении?

Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?

Комбинирование методов распространения Коши и обратного распространения заключается в:

Сеть с обратным распространением называется устойчивой, если:

При каком условии сеть обратного распространения является устойчивой?

Сколько слоев полноценных нейронов используется в сети Хопфилда?

Сеть Хопфилда заменяется на сеть Хэмминга, если:

Задача сети Хопфилда заключается в

Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:

Сколько слоев полноценных нейронов имеет сеть Хэмминга?

Какими должны быть весовые значения тормозящих синаптических связей?

В чем основное отличие ассоциативной памяти от адресной?

Метод отказа от симметрии синапсов позволяет:

Метод машины Больцмана позволяет сети Хопфилда:

В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:

Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:

Задачей аналого-цифрового преобразователя является то, что:

Обучение обобщенной машины Больцмана является:

При методе отказа от симметрии синапсов отрицательным фактором является:

Алгоритмы разобучения применяются для:

В методе машины Больцмана изменение состояний нейронов обусловлено:

В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:

Гетероассоциативность ДАП достигается путем:

Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?

Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?

В чем преимущество негомогенной сети ДАП перед гомогенной?

В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?

Кратковременной памятью сети ДАП называется:

Автоассоциативность памяти обусловлена:

Кодированием ассоциаций называется:

Сеть ДАП называется конкурирующей, если:

Внутренней памятью нейрона называется:

Сеть ДАП называется адаптивной, если:

Если входной вектор не соответствует ни одному из запомненных образов, то

В начальный момент времени выходом слоя сравнения является

Сколько функциональных модулей включает в себя сеть АРТ?

В сети АРТ запомненный образ подвергается изменению:

Задачей сети АРТ является:

Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?

Лотарально-тормозящая связь используется :

Пластичностью называется способность памяти:

Правило двух третьих заключается в том, что:

Если параметр сходства выбрать неоправданно низким, то:

Процесс лотерального торможения обеспечивает, что

Если в процессе обучения некоторый вес был обнулен, то:

Характеристика «прямого доступа» заключается в том, что:

Величиной NET нейрона когнитрона является:

Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:

Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:

Область связи пресиноптического тормозящего нейрона:

Если области связи нейронов имеют постоянный размер во всех слоях, то:

Каждой плоскости простых узлов сопоставлено:

Слой неокогнитрона состоит из

Рецептивной областью данного простого узла называется:

В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход

Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?

В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:

Каждый слой неокогнитрона состоит из:

Простой узел возбуждается, если:

Какой тип обучения можно использовать при обучении неокогнитрона?

Обучение персептрона считается законченным, когда:

Алгоритм обучения Кохонена является:

В алгоритме обучения Хэбба предполагается обучение:

Входная звезда Гроссберга используется для:

Алгоритм обучения персептрона является:

Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?

Дендритами называются:

Можно ли построить однослойную нейронную сеть с обратными связями?

При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?

Сколько булевых функций от двух переменных можно представить персептроном?

Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?

Когда алгоритм обучения персептрона зацикливается?

Алгоритм обучения персептрона завершает свою работу, когда

Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?

Сигналом ошибки данного выходного нейрона называется:

Метод ускорения сходимости заключается в:

Алгоритм обратного распространения работает, пока:

К переобучению склонны сети с:

Принцип работы слоя Кохонена заключается в том, что:

При обучении слоя Кохонена процесс обучения состоит в:

Метод интерполяции заключается в:

При обучении сети встречного распространения обучающей парой является:

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

При обучении сеть не сможет выбраться из локального минимума, если:

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:

Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?

Какая сеть требует меньших затрат вычислительных ресурсов?

Если два образца сильно похожи, то:

Синаптические связи называются тормозящими, если :

Отсутствие обратных связей гарантирует:

Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?

Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:

В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:

При ортогонализации исходных образов отрицательным фактором является:

Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:

В аналого-цифровом преобразователе весовые значения интерпретируют:

Память называется автоассоциативной, если:

В каком случае сеть ДАП превращается в сеть Хопфилда?

Самоадаптацией алгоритма обучения сети АРТ называется:

Если входной вектор соответствует одному из запомненных образов, то:

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:

Алгоритм обучения сети АРТ является…

Если параметр сходства выбрать неоправданно высоким, то:

Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:

Фаза поиска считается неуспешно завершенной, если:

Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?

Проблема локализованности памяти АРТ заключается в том, что:

Весовые значения тормозящих нейронов из области связи задаются так, чтобы:

При предъявлении на вход обученного когнитрона некоторого вектора

После окончания алгоритма обучения информация о «шаблоне» данного класса образов хранится:

Принцип «элитного обучения» когнитрона заключается в том, что:

Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?

Областью связанности данного нейрона называется:

Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?

Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?

Каждый узел в плоскости простых узлов получает вход:

Теория обучения Хэбба подразумевает:

Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:

В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит

В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

Хорошо обученная входная звезда Гроссберга способна реагировать:

Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона

Сети с обратными связями это:

Однонейронным персептроном размерность разделяемого пространства определяется

Однослойный персептрон решает задачи:

Теорема о «зацикливании» персептрона утверждает, что:

Все ли нейроны многослойного персептрона возможно обучить?

В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?

Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?

Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?

Проблема переобучения заключается в:

При методе кросс-проверки считается, что сеть начала переобучаться, если:

По принципу «победитель забирает все» действуют:

Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:

Детерминистским методом обучения называется:

В чем преимущество метода Коши перед Больцмановским методом обучения?

Для какого алгоритма скорость обучения более высокая?

Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:

Есть ли вероятность того, что в алгоритме разобучения сеть «забудет» правильный образ?

Метод обучения сети называется локальным, если:

В задаче коммивояжера каждый город представляется:

Способность ДАП к обобщению заключается в:

Обучение сети ДАП происходит:

Шаблон критических черт используется, когда:

В момент времени, отличный от начального, выходом слоя распознавания является

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:

Суть алгоритма медленного обучения в том, что:

Задачей комплексных узлов является:

Каждая плоскость простых узлов реагирует

Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?

При обучении неокогнитрона обучаются:

В каждом слое неокогнитрона

Месторасположением узла в данной плоскости простых узлов определяется

В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :

Выходом выходной звезды Гроссберга является

Статистические методы обучения являются:

В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:

Comments are closed.

Яндекс.Метрика