Шифрование - это одно из свойств двоичного кода
Сравнивай два соседних числа и переставляй если второе больше за первое так делай n раз
Если да, то покажите на примерах. А если нет. то ничего не надо делать, аргументировать не надо? так лучше нет ответить):D
Ну а так, конечно Да.
Понятие информация имеет контекстный смысл уже по тому, что в настоящее
время не существует единого определения информации как научного
термина. То есть данное понятие используется в различных
науках(информатика\кибернетика\биология\физика и т.д.) неся за собой
различный лексический смысл.Поэтому смысл слова
"информация" определяется контекстам
В качестве примера равномерного кода можно назвать ASCII-таблицу, где каждому из 256 символов сопоставлено двоичное значение от 00000000 до 11111111. Независимо от вероятности появления символа на его представление отводится 1 байт, или 8 бит. Как известно, национальные языки обладают большой избыточностью, то есть разницей между энтропией источника и максимально возможной энтропией, обусловленной равной вероятностью появления любого символа из алфавита. Например, избыточность русского языка составляет 70%, а английского – 50%. Это в частности означает, что некоторые буквы появляются в тексте гораздо чаще других и поэтому использовать равномерное кодирование нерационально.
<span>При неравномерном кодировании часто встречающимся символам сопоставляются более короткие кодовые последовательности, редко встречающимся – более длинные. За счет этого удается значительно сократить объем файла без потерь информации. Существует несколько методов неравномерного кодирования, важнейших из которых является метод Шеннона-Фано.
как-то так
</span>