Основы теории информации и криптографии | ointuit.ru

Основы теории информации и криптографии

Основы теории информации и криптографии

Ответы на курс: Основы теории информации и криптографии

Древовидные коды также называют:
параллельными кодами
прав.ответ последовательными кодами
управляющими кодами

Преимущество матричного кодирования заключается в:
определении объема полученных данных еще до начала кодирования
прав.ответ использовании гораздо меньшего объема памяти по сравнению с другими методами кодирования
использовании большего объема памяти по сравнению с другими методами кодирования

Коды с исправлением ошибок предназначены для:
управления ошибками в ходе отправки и получения сообщения
прав.ответ восстановления с вероятностью, близкой к единице, посланного сообщения
выявления вероятности, близкой к единице, наличие ошибок

Код Хэмминга:
не групповой код
натуральный код
прав.ответ групповой код

Для кодирующей матрицы E_2=\left\lbrack\matrix{1& 0& 0& 1\\ 0& 1& 0& 1 \\ 0& 0& 1& 0}\right\rbrack найти вероятность правильной передачи:
прав.ответ Pправильной передачи = p4+p3q
Pправильной передачи = p2+p2q
Pправильной передачи = p3+p2q

Блочный код называется групповым, если:
сообщение кодируется несколькими методами последовательно
он образует группу вместе с другими кодами
прав.ответ его кодовые слова образуют группу

Для кодирующей матрицы E_1=\left\lbrack\matrix{1& 0& 1& 0& 1 \\ 0& 1& 1& 1& 0\cr}\right\rbrack найти вероятность необнаружения ошибки:
Pнеобнаружения ошибки = 2p3q3 + pq3
прав.ответ Pнеобнаружения ошибки = 2p2q3 + pq4
Pнеобнаружения ошибки = 4p4q3 + pq4

Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:
1101
1001
прав.ответ 1000

Первый БЧХ-код, примененный на практике, был:
прав.ответ (92,127)-код
(102,250)-код
(231,255)-код

Код Голея — это:
код БЧХ
невозможно определить принадлежность кода Голея к коду БЧХ
прав.ответ не код БЧХ

При реальной передаче или хранении информации ошибки:
распределяются равномерно по всей длине данных
группируются в нескольких участках, распределенных неравномерно
прав.ответ обычно группируются на некотором участке

Первая и наиболее известная система с открытым ключом называется:
DES
PGP
прав.ответ RSA

Особенностью системы с ключевым словом является:
три уровня секретности
один уровень секретности
прав.ответ два уровня секретности

Нужно послать секретные сообщения 25 и 2 для JB и 14 для CIA, используя следующие записи открытой книги паролей криптосистемы RSA — JB: 77,7; CIA: 667,15
43, 41; 256
53, 31; 295
прав.ответ 53, 51; 247

Системы с ключевым словом характеризуются тем, что:
прав.ответ широко применяются до сих пор
в настоящее время очень редко применяются
вышли из применения

Большинство тегов языка HTML:
самодостаточные
нуждаются в двойном закрытии
прав.ответ парные

Самым распространенным типом данных в компьютерном мире является:
графические файлы
динамические библиотеки
прав.ответ текстовые файлы

Аналоговая информация характеризуется:
прав.ответ непрерывным процессом изменения некоторой величины
последовательными точными значениями некоторой величины
повторными процессами распределения случайной величины

Кибернетика — это наука:
о способах взаимодействиях различных абстрактных объектов
об общих законах управления системами
прав.ответ об общих законах получения, хранения, передачи и переработки информации

Чем ниже частота дискретизации, тем:
точнее происходит перевод непрерывной информации в дискретную
эффективнее и быстрее происходит перевод непрерывной информации в дискретную
прав.ответ менее точно происходит перевод непрерывной информации в дискретную

В таблице кодировки ASCII+ печатные и управляющие символы занимают:
все 256 символов таблицы
первые 127 позиций таблицы
последние 127 позиций таблицы
последние 128 позиций таблицы
прав.ответ первые 128 позиций таблицы

Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Вычислить HX1.
HX1 = 1.51 \ бит/сим
прав.ответ HX1 = 2 \ бит/сим
HX1 = 2.5 \ бит/сим

Определить HZ, если задана дискретная случайная величина Z=(X1+1)2-X2, где независимые дискретные случайные величины X1, X2 могут с равной вероятностью принимать значение либо 0, либо 1:
HZ = 1 бит/сим
прав.ответ HZ = 2 бит/сим
HZ = 2.5 бит/сим

Дискретная случайная величина X равна количеству «гербов», выпавших на двух идеальных монетках. Найти энтропию X:
HX=1.8 бит/сим
HX=2.5 бит/сим
прав.ответ HX=1.5 бит/сим

По теории Шеннона:
прав.ответ смысл сообщений НЕ имеет никакого отношения к теории информации
нельзя дать точный ответ насчет зависимости между смыслом сообщений и теории информации
смысл сообщений имеет прямое отношения к теории информации

Перед испытуемым человеком зажигается одна из N лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной вероятностью pi, где i — это номер лампочки. Среднее время, необходимое для правильного ответа испытуемого, пропорционально:
прав.ответ величине энтропии -\sum_{i=1}^N p_i\log_2p_i
-\sum_{i=1}N p_i\ln{p_i}
числу лампочек N

Про дискретную случайную величину X известно, что ее значениями являются буквы кириллицы. Произведен ряд последовательных измерений X, результат которых — «ТЕОРИЯИНФОРМАЦИИ». Составить на основании этого результата приблизительный закон распределения вероятностей этой дискретной случайной величины и оценить минимальную среднюю длину кодов для X:
прав.ответ ML(X) \ge HX \approx 3.25 \ бит/сим
ML(X) \ge HX \approx 3 \ бит/сим
ML(X) \ge HX \approx 3.75 \ бит/сим

\noindent\hskip\dzero\vbox{\offinterlineskip \halign{&\strut\quad\hfil#\hfil& \vrule#\cr $X$& $p$ & $code(X)$\cr \noalign{\hrule} A & 0.4 & 0\cr B & 0.2 & 11\cr C & 0.4 & 10\cr}} Вычислить ML1(X) для блочного кода Хаффмена для X. Длина блока — 2 бита:
1.7 бит/сим
1.3 бит/сим
прав.ответ 1.56 бит/сим

Метод Шеннона-Фэно состоит в том, что:
значения дискретной случайной величины располагают в порядке возрастания их вероятностей, а затем последовательно умножают на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй — 1
прав.ответ значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй — 1
значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 1, а к коду второй — 0

Среднее количество бит, приходящихся на одно кодируемое значение дискретной случайной величины:
прав.ответ не может быть меньшим, чем энтропия этой дискретной случайной величины
не может быть большей, чем энтропия этой дискретной случайной величины
строго равна энтропии этой дискретной случайной величины

Суть основной теоремы о кодировании при отсутствии помех заключается в том, что:
при очень малой длине n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения. Данное правило действует только на короткие сообщения
прав.ответ с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения
с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет очень удалено от энтропии единицы сообщения

Размер сжатия:
может быть сколь угодно большим
прав.ответ не может быть больше некоторого теоретические предела
ограничивается лишь потребностями пользователя

Вычислить HX для кодов Хаффмена и Шеннона-Фэно для X. Дискретная случайная величина X задается следующим распределением вероятностей \bigskip \centerline{\vbox{\offinterlineskip\halign{&\strut\quad#\cr X&\omit\ \vrule& 1& 2& 3& 4& 5\cr \noalign{\hrule} \omit\quad&\omit\ \vrule height2pt\cr p&\omit\ \vrule& \xfrac7{18}& \xfrac16& \xfrac16& \xfrac16& \xfrac19\cr}}} \bigskip:
прав.ответ HX \approx 2.17 \ бит/сим
HX \approx 3.17 \ бит/сим
HX \approx 2.5 \ бит/сим

Вычислить ML(X) для кода Шеннона-Фэно для X. Дискретная случайная величина X задается следующим распределением вероятностей \bigskip \centerline{\vbox{\offinterlineskip\halign{&\strut\quad#\cr X&\omit\ \vrule& 1& 2& 3& 4& 5\cr \noalign{\hrule} \omit\quad&\omit\ \vrule height2pt\cr p&\omit\ \vrule& \xfrac7{18}& \xfrac16& \xfrac16& \xfrac16& \xfrac19\cr}}} \bigskip:
прав.ответ ML(X) \approx 2.28 \ бит/сим
ML(X) \approx 2.5 \ бит/сим
ML(X) \approx 2.48 \ бит/сим

Вместе с собственно сообщением нужно передавать таблицу кодов для метода:
Берга
прав.ответ Шеннона-Фэно
Винера
прав.ответ Хаффмена

Преимущество арифметического кодирования позволяет:
кодировать символы одним байтом
прав.ответ кодировать некоторые символы менее чем одним битом
кодировать некоторые символы только несколькими битами

Закодировать сообщение «КИБЕРНЕТИКИ», используя адаптивный алгоритм Хаффмена с упорядоченным деревом:
прав.ответ код(КИБЕРНЕТИКИ) = ‘К’0′И’00′Б’100′Е’000′Р’1 100′Н’1111000′Т’100110111
код(КИБЕРНЕТИКИ) = ‘К’0′И’00′Б’101′Е’010′Р’1 100′Н’1100001′Т’100110001
код(КИБЕРНЕТИКИ) = ‘К’0′И’00′Б’100′Е’000′Р’1 100′Н’1111000′Т’101010001

Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длины кодов Хаффмена, блочного Хаффмена (для блоков длины 2 и 3) для сообщения ABAAAB:
LХаффмена-1(ABAAAB) = 5 бит, LХаффмена-2(ABAAAB) = 6 бит, LХаффмена-3(ABAAAB) = 4 бита
прав.ответ LХаффмена-1(ABAAAB) = 6 бит, LХаффмена-2(ABAAAB) = 5 бит, LХаффмена-3(ABAAAB) = 5 бит
LХаффмена-1(ABAAAB) = 5 бит, LХаффмена-2(ABAAAB) = 5 бит, LХаффмена-3(ABAAAB) = 6 бит

Cообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: ‘A’0′F’00′X’0111110101011011110100101. Определить длину несжатого сообщения в битах:
117 бит
прав.ответ 120 бит
125 бит

Составить арифметический код для сообщения BAABC, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/3, P(X=B)=7/15, P(X=C)=1/5:
01100001
01100111
прав.ответ 01011111

Дискретная случайная величина X может принимать три различных значения. Если считать сложность построения кода пропорциональной количеству различных значений кодируемой дискретной случайной величины, то блочный код для X по сравнению с неблочным сложнее строить в:
в 81 раз
в 25 раз
прав.ответ в 27 раз

Закодировать сообщение «AABCDAACCCCDBB», используя адаптивный алгоритм Хаффмена с упорядоченным деревом:
код(AABCDAACCCCDBB) = ‘A’10′B’00′C’011′D’00011001111100110011110
прав.ответ код(AABCDAACCCCDBB) = ‘A’10′B’00′C’000′D’00011001111100110011001
код(AABCDAACCCCDBB) = ‘A’11′B’11′C’010′D’00011001111100110000101

Словарные алгоритмы преимущественно отличаются от статистических тем, что:
позволяют кодировать последовательности символов одинаковой длины
позволяют быстрее кодировать символы
прав.ответ позволяют кодировать последовательности символов разной длины

Закодировать сообщения «КИБЕРНЕТИКИ», вычислить длины в битах полученных кодов, используя алгоритм LZSS (словарь — 12 байт, буфер — 4 байта):
0'К'0'И'0'Б'0'Е'0'Р'0'Н'0'Е'0'Т'0'И' \langle 256 \rangle, длина 10 * 9 = 90 бит
прав.ответ 0'К'0'И'0'Б'0'Е'0'Р'0'Н' 1 \langle 9,1 \rangle 0'Т'1 \langle 5,1 \rangle 1 \langle 5,2 \rangle, длина 3 * 7 + 7 * 9 = 84 бит
0'К'0'И'0'Б'0'Е'Р'0'Н' 1 \langle 9,1 \rangle 0'Т'1 \langle 5,2 \rangle, длина 3 * 7 + 7 * 9 = 84 бит

Алгоритм LZ77 использует «скользящее» по сообщению окно, разделенное на две части, выполняющие определенные функции:
прав.ответ первая, большая по размеру, включает уже просмотренную часть сообщения. Вторая, намного меньшая, является буфером, содержащим еще незакодированные символы входного потока
первая, большая по размеру, включает уже просмотренную часть сообщения. Вторая, намного меньшая, является буфером, содержащим уже закодированные, но еще не просмотренные символы входного потока
первая включает уже просмотренную часть сообщения. Вторая является буфером, содержащим еще незакодированные символы входного потока. Первая и вторая части равны

Статистическими методами называют:
словарные алгоритмы
прав.ответ арифметическое кодирование
алгоритм Ферма
прав.ответ метод Хаффмена
прав.ответ метод Шеннона-Фэно

Закодировать сообщения «AABCDAACCCCDBB», вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь — 12 байт, буфер — 4 байта):
прав.ответ \langle 0,0,'A' \rangle \langle 11,1,'B' \rangle \langle 0,0,'C' \rangle \langle 0,0,'D' \rangle \langle 7,2,'C' \rangle \langle 11,2,'C' \rangle \langle 5,2,'B'\rangle \langle 0,0,'B' \rangle, длина 8 * 15 = 120 бит
\langle 0,0,'A' \rangle \langle 10,1,'B' \rangle \langle 1,0,'C' \rangle \langle 11,1,'D' \rangle \langle 7,2,'D' \rangle \langle 11,2,'C' \rangle \langle 5,2,'B'\rangle \langle 0,0,'B' \rangle, длина 8 * 13 = 104 бита
\langle 0,0,'A' \rangle \langle 11,1,'C' \rangle \langle 0,0,'C' \rangle \langle 10,10,'C' \rangle \langle 8,2,'C' \rangle \langle 7,11,'C' \rangle \langle 7,8,'B'\rangle \langle 10,0,'B' \rangle, длина 8 * 10 = 80 бит

Алгоритм LZSS отличается от LZ77 следующим:
возможность кодирования подстрок, отстоящих друг от друга на расстоянии, большем длины словаря
скоростью работы
длина подстроки, которую можно закодировать, НЕ ограничена размером буфера
прав.ответ производимыми кодами

Задержка сигнала во времени представляет собой:
прав.ответ интервал времени от отправки сигнала передатчиком до его приема приемником
интервал времени от создания сигнала до его прочтения приемником и удаления
интервал времени от отправки сигнала передатчиком до его приема приемником и обратной отправки к передатчику

Видеоинформацию можно сжать:
очень неплотно, всего на несколько процентов
очень слабо — она практически не сжимаема
прав.ответ очень плотно, до 100 и более раз
до 10000 и более раз

Устройства канала связи представляют собой:
совокупность устройств, объединенных линиями связи, предназначенных для передачи информации от источника информации до ее приемника
прав.ответ устройства, просто передающие усиленным принятый сигнал
устройство, определяющее интервал времени от отправки сигнала передатчиком до его приема приемником

Cжатие с потерями позволяет:
предоставить более эффективные методы сжатия данных без удаления информации
добавлять некоторую часть к исходной информации
прав.ответ отбрасывать часть исходной информации

Для сжатия графической информации с потерями в конце 80-х установлен стандарт:
GIF
ICO
WMF
BMP
прав.ответ JPEG

Сжатие с потерями используется в основном для видов данных:
текстовая информация
прав.ответ звук
прав.ответ полноцветная графика
прав.ответ видеоинформация

Специальные таблицы для перевода неформальных данных в цифровой вид называются:
символьные преобразователями
таблицами взаимодействия
таблицами шифрования
прав.ответ таблицами кодировки

Противоположность информации:
прав.ответ неопределенность
определенность
сущность

Функция f-инъекция, если:
она зависит от двух и более аргументов
прав.ответ на разных значениях аргумента она принимает разные значения
на разных значениях аргумента она принимает одинаковые значения
в роли аргумента выступает функция

Дискретная случайная величина X может принимать три различных значения. При построении блочного кода с длиной блока 4 для X необходимо будет рассмотреть дискретную случайную величину X — выборку четырех значений X. X может иметь:
75 различных значений
прав.ответ 81 различное значение
27 различных значений

Вычислить длины в битах сообщения «СИНЯЯ СИНЕВА СИНИ» в коде ASCII+ и его полученного кода
L(СИНЯЯ СИНЕВА СИНИ) = 124 бит, длина исходного сообщения = 148 бит
прав.ответ L(СИНЯЯ СИНЕВА СИНИ) = 114 бит, длина исходного сообщения = 136 бит
L(СИНЯЯ СИНЕВА СИНИ) = 104 бит, длина исходного сообщения = 124 бит

Атрибут ALT тега IMG используется для:
указания способа выравнивания картинки
указания URI файла с графикой
прав.ответ указания альтернативного текста, показываемого вместо картинки, в случае, когда файл с графикой недоступен или его тип неизвестен браузеру
определения рамки картинки

Составить адаптивный арифметический код с маркером конца для сообщения BAABC:
прав.ответ 01000010111001
01000010110100
01000011000011

Наиболее широкое распространение получил:
(102,250)-код
прав.ответ (231,255)-код
(92,127)-код

Comments are closed.


Яндекс.Метрика