Войти
Windows. Настройка. Интернет. Обслуживание. Компьютеры. Безопасность
  • Все что вы хотели знать о сканерах отпечатков, но боялись спросить
  • Пакетная обработка фотографий, изображений, картинок
  • Как сфотографировать экран телефона на андроиде
  • Как сидеть в вк, чтоб никто не догадался
  • Возникают проблемы с Batman Arkham Knight - черный экран, тормозит, фпс-лимит, где сохранения, ошибки?
  • Различные тактики ведения боя в wot
  • Бинарный код как научиться писать. Кодирование текстовой информации. Двоичный код — где и как применяется

    Бинарный код как научиться писать. Кодирование текстовой информации. Двоичный код — где и как применяется

    Бинарный код представляет собой текст, инструкции процессора компьютера или другие данные с использованием любой двухсимвольной системы. Чаще всего это система 0 и 1. назначает шаблон бинарных цифр (бит) каждому символу и инструкции. Например, бинарная строка из восьми бит может представлять любое из 256 возможных значений и поэтому может генерировать множество различных элементов. Отзывы о бинарном коде мирового профессионального сообщества программистов свидетельствуют о том, что это основа профессии и главный закон функционирования вычислительных систем и электронных устройств.

    Расшифровка бинарного кода

    В вычислениях и телекоммуникациях бинарные коды используются для различных методов кодирования символов данных в битовые строки. Эти методы могут использовать строки фиксированной или переменной ширины. Для перевода в бинарный код существует множество наборов символов и кодировок. В коде с фиксированной шириной каждая буква, цифра или другой символ представляется битовой строкой той же длины. Эта битовая строка, интерпретируемая как бинарное число, обычно отображается в кодовых таблицах в восьмеричной, десятичной или шестнадцатеричной нотации.

    Расшифровка бинарного кода: битовая строка, интерпретируемая как бинарное число, может быть переведена в десятичное число. Например, нижний регистр буквы a, если он представлен битовой строкой 01100001 (как и в стандартном коде ASCII), также может быть представлен как десятичное число 97. Перевод бинарного кода в текст представляет собой ту же процедуру, только в обратном порядке.

    Как это работает

    Из чего состоит бинарный код? Код, используемый в цифровых компьютерах, основан на в которой есть только два возможных состояния: вкл. и выкл., обычно обозначаемые нулем и единицей. Если в десятичной системе, которая использует 10 цифр, каждая позиция кратна 10 (100, 1000 и т. д.), то в двоичной системе каждое цифровое положение кратно 2 (4, 8, 16 и т. д.). Сигнал двоичного кода представляет собой серию электрических импульсов, которые представляют числа, символы и операции, которые необходимо выполнить.

    Устройство, называемое часами, посылает регулярные импульсы, а такие компоненты, как транзисторы, включаются (1) или выключаются (0), чтобы передавать или блокировать импульсы. В двоичном коде каждое десятичное число (0-9) представлено набором из четырех двоичных цифр или битов. Четыре основных арифметических операции (сложение, вычитание, умножение и деление) могут быть сведены к комбинациям фундаментальных булевых алгебраических операций над двоичными числами.

    Бит в теории связи и информации представляет собой единицу данных, эквивалентную результату выбора между двумя возможными альтернативами в системе двоичных номеров, обычно используемой в цифровых компьютерах.

    Отзывы о бинарном коде

    Характер кода и данных является базовой частью фундаментального мира ИТ. C этим инструментом работают специалисты мирового ИТ-«закулисья» — программисты, чья специализация скрыта от внимания рядового пользователя. Отзывы о бинарном коде от разработчиков свидетельствуют о том, что эта область требует глубокого изучения математических основ и большой практики в сфере матанализа и программирования.

    Бинарный код — это простейшая форма компьютерного кода или данных программирования. Он полностью представлен двоичной системой цифр. Согласно отзывам о бинарном коде, его часто ассоциируется с машинным кодом, так как двоичные наборы могут быть объединены для формирования исходного кода, который интерпретируется компьютером или другим аппаратным обеспечением. Отчасти это верно. использует наборы двоичных цифр для формирования инструкций.

    Наряду с самой базовой формой кода двоичный файл также представляет собой наименьший объем данных, который протекает через все сложные комплексные аппаратные и программные системы, обрабатывающие сегодняшние ресурсы и активы данных. Наименьший объем данных называется битом. Текущие строки битов становятся кодом или данными, которые интерпретируются компьютером.

    Двоичное число

    В математике и цифровой электронике двоичное число — это число, выраженное в системе счисления base-2 или двоичной цифровой системе, которая использует только два символа: 0 (ноль) и 1 (один).

    Система чисел base-2 представляет собой позиционную нотацию с радиусом 2. Каждая цифра упоминается как бит. Благодаря своей простой реализации в цифровых электронных схемах с использованием логических правил, двоичная система используется почти всеми современными компьютерами и электронными устройствами.

    История

    Современная бинарная система чисел как основа для двоичного кода была изобретена Готтфридом Лейбницем в 1679 году и представлена ​​в его статье «Объяснение бинарной арифметики». Бинарные цифры были центральными для теологии Лейбница. Он считал, что двоичные числа символизируют христианскую идею творчества ex nihilo, или творение из ничего. Лейбниц пытался найти систему, которая преобразует вербальные высказывания логики в чисто математические данные.

    Бинарные системы, предшествующие Лейбницу, также существовали в древнем мире. Примером может служить китайская бинарная система И Цзин, где текст для предсказания основан на двойственности инь и ян. В Азии и в Африке использовались щелевые барабаны с бинарными тонами для кодирования сообщений. Индийский ученый Пингала (около 5-го века до н.э.) разработал бинарную систему для описания просодии в своем произведении «Чандашутрема».

    Жители острова Мангарева во Французской Полинезии использовали гибридную бинарно-десятичную систему до 1450 года. В XI веке ученый и философ Шао Юн разработал метод организации гексаграмм, который соответствует последовательности от 0 до 63, как представлено в бинарном формате, причем инь равен 0, янь — 1. Порядок также является лексикографическим порядком в блоках элементов, выбранных из двухэлементного набора.

    Новое время

    В 1605 году обсудил систему, в которой буквы алфавита могут быть сведены к последовательностям бинарных цифр, которые затем могут быть закодированы как едва заметные вариации шрифта в любом случайном тексте. Важно отметить, что именно Фрэнсис Бэкон дополнил общую теории бинарного кодирования наблюдением, что этот метод может использован с любыми объектами.

    Другой математик и философ по имени Джордж Бул опубликовал в 1847 году статью под названием «Математический анализ логики», в которой описывается алгебраическая система логики, известная сегодня как булева алгебра. Система была основана на бинарном подходе, который состоял из трех основных операций: AND, OR и NOT. Эта система не была введена в эксплуатацию, пока аспирант из Массачусетского технологического института по имени Клод Шеннон не заметил, что булева алгебра, которую он изучил, была похожа на электрическую цепь.

    Шеннон написал диссертацию в 1937 году, в которой были сделаны важные выводы. Тезис Шеннона стал отправной точкой для использования бинарного кода в практических приложениях, таких как компьютеры и электрические схемы.

    Другие формы двоичного кода

    Битовая строка не является единственным типом двоичного кода. Двоичная система в целом — это любая система, которая допускает только два варианта, таких как переключатель в электронной системе или простой истинный или ложный тест.

    Брайль — это тип двоичного кода, который широко используется слепыми людьми для чтения и записи на ощупь, названный по имени его создателя Луи Брайля. Эта система состоит из сеток по шесть точек в каждой, по три на столбец, в котором каждая точка имеет два состояния: приподнятые или углубленные. Различные комбинации точек способны представлять все буквы, цифры и знаки пунктуации.

    Американский стандартный код для обмена информацией (ASCII) использует 7-битный двоичный код для представления текста и других символов в компьютерах, оборудовании связи и других устройствах. Каждой букве или символу присваивается номер от 0 до 127.

    Двоично-кодированное десятичное значение или BCD — это двоичное кодированное представление целочисленных значений, которое использует 4-битный граф для кодирования десятичных цифр. Четыре двоичных бита могут кодировать до 16 различных значений.

    В номерах с кодировкой BCD только первые десять значений в каждом полубайте являются корректными и кодируют десятичные цифры с нулем, через девять. Остальные шесть значений являются некорректными и могут вызвать либо машинное исключение, либо неуказанное поведение, в зависимости от компьютерной реализации арифметики BCD.

    Арифметика BCD иногда предпочтительнее числовых форматов с плавающей запятой в коммерческих и финансовых приложениях, где сложное поведение округления чисел является нежелательным.

    Применение

    Большинство современных компьютеров используют программу бинарного кода для инструкций и данных. Компакт-диски, DVD-диски и диски Blu-ray представляют звук и видео в двоичной форме. Телефонные звонки переносятся в цифровом виде в сетях междугородной и мобильной телефонной связи с использованием импульсно-кодовой модуляции и в сетях передачи голоса по IP.

    На данном уроке будет рассмотрена тема «Кодирование информации. Двоичное кодирование. Единицы измерения информации». В ходе него пользователи смогут получить представление о кодировании информации, способах восприятия информации компьютеров, единицах ее измерения и двоичном кодировании.

    Тема: Информация вокруг нас

    Урок: Кодирование информации. Двоичное кодирование. Единицы измерения информации

    На данном уроке будут рассмотрены следующие вопросы:

    1. Кодирование как изменение формы представления информации.

    2. Как компьютер распознает информацию?

    3. Как измерить информацию?

    4. Единицы измерения информации.

    В мире кодов

    Зачем люди кодируют информацию?

    1. Скрыть ее от других (зеркальная тайнопись Леонардо да Винчи, военные шифровки).

    2. Записать информацию короче (стенография, аббревиатура, дорожные знаки).

    3. Для более легкой обработки и передачи (азбука Морзе, перевод в электрические сигналы - машинные коды).

    Кодирование - это представление информации с помощью некоторого кода.

    Код - это система условных знаков для представления информации.

    Способы кодирования информации

    1. Графический (см. Рис. 1) (с помощью рисунков и знаков).

    Рис. 1. Система сигнальных флагов (Источник)

    2. Числовой (с помощью чисел).

    Например: 11001111 11100101.

    3. Символьный (с помощью символов алфавита).

    Например: НКМБМ ЧГЁУ.

    Декодирование - это действие по восстановлению первоначальной формы представления информации. Для декодирования необходимо знать код и правила кодирования.

    Средством кодирования и декодирования служит кодовая таблица соответствия. Например, соответствие в различных системах счисления - 24 - XXIV, соответствие алфавита каким-либо символам (Рис. 2).


    Рис. 2. Пример шифра (Источник)

    Примеры кодирования информации

    Примером кодирования информации является азбука Морзе (см. Рис. 3).

    Рис. 3. Азбука Морзе ()

    В азбуке Морзе используется всего 2 символа - точка и тире (короткий и длинный звук).

    Еще одним примером кодирования информации является флажковая азбука (см. Рис. 4).

    Рис. 4. Флажковая азбука ()

    Также примером является азбука флагов (см. Рис. 5).

    Рис. 5. Азбука флагов ()

    Всем известный пример кодирования - нотная азбука (см. Рис. 6).

    Рис. 6. Нотная азбука ()

    Рассмотрим следующую задачу:

    Используя таблицу флажковой азбуки (см. Рис. 7), необходимо решить следующую задачу:

    Рис. 7

    Старший помощник Лом сдает экзамен капитану Врунгелю. Помогите ему прочитать следующий текст (см. Рис. 8):

    Вокруг нас существуют преимущественно два сигнала, например:

    Светофор: красный - зеленый;

    Вопрос: да - нет;

    Лампа: горит - не горит;

    Можно - нельзя;

    Хорошо - плохо;

    Истина - ложь;

    Вперед - назад;

    Есть - нет;

    Всё это сигналы, обозначающие количество информации в 1 бит.

    1 бит - это такое количество информации, которое позволяет нам выбрать один вариант из двух возможных.

    Компьютер - это электрическая машина, работающая на электронных схемах. Чтобы компьютер распознал и понял вводимую информацию, ее надо перевести на компьютерный (машинный) язык.

    Алгоритм, предназначенный для исполнителя, должен быть записан, то есть закодирован, на языке, понятном компьютеру.

    Это электрические сигналы: проходит ток или не проходит ток.

    Машинный двоичный язык - последовательность "0" и "1". Каждое двоичное число может принимать значение 0 или 1.

    Каждая цифра машинного двоичного кода несет количество информации, равное 1 бит.

    Двоичное число, которое представляет наименьшую единицу информации, называется б ит . Бит может принимать значение либо 0, либо 1. Наличие магнитного или электронного сигнала в компьютере означает 1, отсутствие 0.

    Строка из 8 битов называется б айт . Эту строку компьютер обрабатывает как отдельный символ (число, букву).

    Рассмотрим пример. Слово ALICE состоит из 5 букв, каждая из которых на языке компьютера представлена одним байтом (см. Рис. 10). Стало быть, Alice можно измерить как 5 байт.

    Рис. 10. Двоичный код (Источник)

    Кроме бита и байта, существуют и другие единицы измерения информации.

    Список литературы

    1. Босова Л.Л. Информатика и ИКТ: Учебник для 5 класса. - М.: БИНОМ. Лаборатория знаний, 2012.

    2. Босова Л.Л. Информатика: Рабочая тетрадь для 5 класса. - М.: БИНОМ. Лаборатория знаний, 2010.

    3. Босова Л.Л., Босова А.Ю. Уроки информатики в 5-6 классах: Методическое пособие. - М.: БИНОМ. Лаборатория знаний, 2010.

    2. Фестиваль "Открытый урок" ().

    Домашнее задание

    1. §1.6, 1.7 (Босова Л.Л. Информатика и ИКТ: Учебник для 5 класса).

    2. Стр. 28, задания 1, 4; стр. 30, задания 1, 4, 5, 6 (Босова Л.Л. Информатика и ИКТ: Учебник для 5 класса).

    Разрядность двоичного кода, Преобразование информации из непрерывной формы в дискретную, Универсальность двоичного кодирования, Равномерные и неравномерные коды, Информатика 7 класс Босова, Информатика 7 класс

    1.5.1. Преобразование информации из непрерывной формы в дискретную
    Для решения своих задач человеку часто приходится преобразовывать имеющуюся информацию из одной формы представления в другую. Например, при чтении вслух происходит преобразование информации из дискретной (текстовой) формы в непрерывную (звук). Во время диктанта на уроке русского языка, наоборот, происходит преобразование информации из непрерывной формы (голос учителя) в дискретную (записи учеников).
    Информация, представленная в дискретной форме, значительно проще для передачи, хранения или автоматической обработки. Поэтому в компьютерной технике большое внимание уделяется методам преобразования информации из непрерывной формы в дискретную.
    Дискретизация информации - процесс преобразования информации из непрерывной формы представления в дискретную.
    Рассмотрим суть процесса дискретизации информации на примере.
    На метеорологических станциях имеются самопишущие приборы для непрерывной записи атмосферного давления . Результатом их работы являются барограммы - кривые, показывающие, как изменялось давление в течение длительных промежутков времени. Одна из таких кривых, вычерченная прибором в течение семи часов проведения наблюдений, показана на рис. 1.9.

    На основании полученной информации можно построить таблицу, содержащую показания прибора в начале измерений и на конец каждого часа наблюдений (рис. 1.10).

    Полученная таблица даёт не совсем полную картину того, как изменялось давление за время наблюдений: например, не указано самое большое значение давления, имевшее место в течение четвёртого часа наблюдений. Но если занести в таблицу значения давления, наблюдаемые каждые полчаса или 15 минут, то новая таблица будет давать более полное представление о том, как изменялось давление.
    Таким образом, информацию, представленную в непрерывной форме (барограмму, кривую), мы с некоторой потерей точности преобразовали в дискретную форму (таблицу).
    В дальнейшем вы познакомитесь со способами дискретного представления звуковой и графической информации.

    Цепочки из трёх двоичных символов получаются дополнением двухразрядных двоичных кодов справа символом 0 или 1. В итоге кодовых комбинаций из трёх двоичных символов получается 8 - вдвое больше, чем из двух двоичных символов:
    Соответственно, четырёхразрядйый двоичный позволяет получить 16 кодовых комбинаций, пятиразрядный - 32, шестиразрядный - 64 и т. д. Длину двоичной цепочки - количество символов в двоичном коде - называют разрядностью двоичного кода.
    Обратите внимание, что:
    4 = 2 * 2,
    8 = 2 * 2 * 2,
    16 = 2 * 2 * 2 * 2,
    32 = 2 * 2 * 2 * 2 * 2 и т. д.
    Здесь количество кодовых комбинаций представляет собой произведение некоторого количества одинаковых множителей, равного разрядности двоичного кода.
    Если количество кодовых комбинаций обозначить буквой N, а разрядность двоичного кода - буквой i, то выявленная закономерность в общем виде будет записана так:
    N = 2 * 2 * ... * 2.
    i множителей
    В математике такие произведения записывают в виде:
    N = 2 i .
    Запись 2 i читают так: «2 в i-й степени».

    Задача. Вождь племени Мульти поручил своему министру разработать двоичный и перевести в него всю важную информацию . Двоичный какой разрядности потребуется, если алфавит, используемый племенем Мульти, содержит 16 символов? Выпишите все кодовые комбинации.
    Решение. Так как алфавит племени Мульти состоит из 16 символов, то и кодовых комбинаций им нужно 16. В этом случае длина (разрядность) двоичного кода определяется из соотношения: 16 = 2 i . Отсюда i = 4.
    Чтобы выписать все кодовые комбинации из четырёх 0 и 1, воспользуемся схемой на рис. 1.13: 0000, 0001, 0010, 0011, 0100, 0101, 0110,0111,1000,1001,1010,1011,1100,1101,1110,1111.

    1.5.3. Универсальность двоичного кодирования
    В начале этого параграфа вы узнали, что, представленная в непрерывной форме, может быть выражена с помощью символов некоторого естественного или формального языка. В свою очередь, символы произвольного алфавита могут быть преобразованы в двоичный. Таким образом, с помощью двоичного кода может быть представлена любая на естественных и формальных языках, а также изображения и звуки (рис. 1.14). Это и означает универсальность двоичного кодирования.
    Двоичные коды широко используются в компьютерной технике, требуя только двух состояний электронной схемы - «включено» (это соответствует цифре 1) и «выключено» (это соответствует цифре 0).
    Простота технической реализации - главное достоинство двоичного кодирования. Недостаток двоичного кодирования - большая длина получаемого кода.

    1.5.4. Равномерные и неравномерные коды
    Различают равномерные и неравномерные коды. Равномерные коды в кодовых комбинациях содержат одинаковое число символов, неравномерные - разное.
    Выше мы рассмотрели равномерные двоичные коды.
    Примером неравномерного кода может служить азбука Морзе, в которой для каждой буквы и цифры определена последовательность коротких и длинных сигналов. Так, букве Е соответствует короткий сигнал («точка»), а букве Ш - четыре длинных сигнала (четыре «тире»). Неравномерное позволяет повысить скорость передачи сообщений за счёт того, что наиболее часто встречающиеся в передаваемой информации символы имеют самые короткие кодовые комбинации.

    Информация, которую дает этот символ, равна энтропии системы и максимальна в случае, когда оба состояния равновероятны; в этом случае элементарный символ передает информацию 1 (дв. ед.). Поэтому основой оптимального кодирования будет требование, чтобы элементарные символы в закодированном тексте встречались в среднем одинаково часто.

    Изложим здесь способ построения кода, удовлетворяющего поставленному условию; этот способ известен под названием «кода Шеннона - Фэно». Идея его состоит в том, что кодируемые символы (буквы или комбинации букв) разделяются на две приблизительно равновероятные группы: для первой группы символов на первом месте комбинации ставится 0 (первый знак двоичного числа, изображающего символ); для второй группы - 1. Далее каждая группа снова делится на две приблизительно равновероятные подгруппы; для символов первой подгруппы на втором месте ставится нуль; для второй подгруппы - единица и т. д.

    Продемонстрируем принцип построения кода Шеннона - Фэно на материале русского алфавита (табл. 18.8.1). Отсчитаем первые шесть букв (от «-» до «т»); суммируя их вероятности (частоты), получим 0,498; на все остальные буквы (от «н» до «сф») придется приблизительно такая же вероятность 0,502. Первые шесть букв (от «-» до «т») будут иметь на первом месте двоичный знак 0. Остальные буквы (от «н» до «ф») будут иметь на первом месте единицу. Далее снова разделим первую группу на две приблизительно равновероятные подгруппы: от «-» до «о» и от «е» до «т»; для всех букв первой подгруппы на втором месте поставим нуль, а второй подгруппы"- единицу. Процесс будем продолжать до тех пор, пока в каждом подразделении не останется ровно одна буква, которая и будет закодирована определенным двоичным числом. Механизм построения кода показан на таблице 18.8.2, а сам код приведен в таблице 18.8.3.

    Таблица 18.8.2.

    Двоичные знаки

    Таблица 18.8.3

    С помощью таблицы 18.8.3 можно закодировать и декодировать любое сообщение.

    В виде примера запишем двоичным кодом фразу: «теория информации»

    01110100001101000110110110000

    0110100011111111100110100

    1100001011111110101100110

    Заметим, что здесь нет необходимости отделять друг от друга буквы специальным знаком, так как и без этого декодирование выполняется однозначно. В этом можно убедиться, декодируя с помощью таблицы 18.8.2 следующую фразу:

    10011100110011001001111010000

    1011100111001001101010000110101

    010110000110110110

    («способ кодирования»).

    Однако необходимо отметить, что любая ошибка при кодировании (случайное перепутывание знаков 0 и 1) при таком коде губительна, так как декодирование всего следующего за ошибкой текста становится невозможным. Поэтому данный принцип кодирования может быть рекомендован только в случае, когда ошибки при кодировании и передаче сообщения практически исключены.

    Возникает естественный вопрос: а является ли составленный нами код при отсутствии ошибок действительно оптимальным? Для того чтобы ответить на этот вопрос, найдем среднюю информацию, приходящуюся на один элементарный символ (0 или 1), и сравним ее с максимально возможной информацией, которая равна одной двоичной единице. Для этого найдем сначала среднюю информацию, содержащуюся в одной букве передаваемого текста, т. е. энтропию на одну букву:

    ,

    где - вероятность того, что буква примет определенное состояние («-», о, е, а,…, ф).

    Из табл. 18.8.1 имеем

    (дв. единиц на букву текста).

    По таблице 18.8.2 определяем среднее число элементарных символов на букву

    Деля энтропию на, получаем информацию на один элементарный символ

    (дв. ед.).

    Таким образом, информация на один символ весьма близка к своему верхнему пределу 1, а выбранный нами код весьма близок к оптимальному. Оставаясь в пределах задачи кодирования по буквам, мы ничего лучшего получить не сможем.

    Заметим, что в случае кодирования просто двоичных номеров букв мы имели бы изображение каждой буквы пятью двоичными знаками и информация на один символ была бы

    (дв. ед.),

    т. е. заметно меньше, чем при оптимальном буквенном кодировании.

    Однако надо заметить, что кодирование «по буквам» вообще не является экономичным. Дело в том, что между соседними буквами любого осмысленного текста всегда имеется зависимость. Например, после гласной буквы в русском языке не может стоять «ъ» или «ь»; после шипящих не могут стоять «я» или «ю»; после нескольких согласных подряд увеличивается вероятность гласной и т. д.

    Мы знаем, что при объединении зависимых систем суммарная энтропия меньше суммы энтропий отдельных систем; следовательно, информация, передаваемая отрезком связного текста, всегда меньше, чем информация на один символ, умноженная на число символов. С учетом этого обстоятельства более экономный код можно построить, если кодировать не каждую букву в отдельности, а целые «блоки» из букв. Например, в русском тексте имеет смысл кодировать целиком некоторые часто встречающиеся комбинации букв, как «тся», «ает», «ние» и т. п. Кодируемые блоки располагаются в порядке убывания частот, как буквы в табл. 18.8.1, а двоичное кодирование осуществляется по тому же принципу.

    В ряде случаев оказывается разумным кодировать даже не блоки из букв, а целые осмысленные куски текста. Например, для разгрузки телеграфа в предпраздничные дни целесообразно кодировать условными номерами целые стандартные тексты, вроде:

    «поздравляю новым годом желаю здоровья успехов работе».

    Не останавливаясь специально на методах кодирования блоками, ограничимся тем, что сформулируем относящуюся сюда теорему Шеннона.

    Пусть имеется источник информации и приемник, связанные каналом связи (рис. 18.8.1).

    Известна производительность источника информации, т. е. среднее количество двоичных единиц информации, поступающее от источника в единицу времени (численно оно равно средней энтропии сообщения, производимого источникам в единицу времени). Пусть, кроме того, известна пропускная способность канала, т. е. максимальное количество информации (например, двоичных знаков 0 или 1), которое способен передать канал в ту же единицу времени. Возникает вопрос: какова должна быть пропускная способность канала, чтобы он «справлялся» со своей задачей, т. е. чтобы информация от источника к приемнику поступала без задержки?

    Ответ на этот вопрос дает первая теорема Шеннона. Сформулируем ее здесь без доказательства.

    1-я теорема Шеннона

    Если пропускная способность канала связи больше энтропии источника информации в единицу времени

    то всегда можно закодировать достаточно длинное сообщение так, чтобы оно передавалось каналом связи без задержки. Если же, напротив,

    то передача информации без задержек невозможна.

    Множество символов, с помощью которых записывается текст, называется алфавитом .

    Число символов в алфавите – это его мощность .

    Формула определения количества информации: N = 2 b ,

    где N – мощность алфавита (количество символов),

    b – количество бит (информационный вес символа).

    В алфавит мощностью 256 символов можно поместить практически все необходимые символы. Такой алфавит называется достаточным.

    Т.к. 256 = 2 8 , то вес 1 символа – 8 бит.

    Единице измерения 8 бит присвоили название 1 байт:

    1 байт = 8 бит.

    Двоичный код каждого символа в компьютерном тексте занимает 1 байт памяти.

    Каким же образом текстовая информация представлена в памяти компьютера?

    Удобство побайтового кодирования символов очевидно, поскольку байт - наименьшая адресуемая часть памяти и, следовательно, процессор может обратиться к каждому символу отдельно, выполняя обработку текста. С другой стороны, 256 символов – это вполне достаточное количество для представления самой разнообразной символьной информации.

    Теперь возникает вопрос, какой именно восьмиразрядный двоичный код поставить в соответствие каждому символу.

    Понятно, что это дело условное, можно придумать множество способов кодировки.

    Все символы компьютерного алфавита пронумерованы от 0 до 255. Каждому номеру соответствует восьмиразрядный двоичный код от 00000000 до 11111111. Этот код просто порядковый номер символа в двоичной системе счисления.

    Таблица, в которой всем символам компьютерного алфавита поставлены в соответствие порядковые номера, называется таблицей кодировки.

    Для разных типов ЭВМ используются различные таблицы кодировки.

    Международным стандартом для ПК стала таблица ASCII (читается аски) (Американский стандартный код для информационного обмена).

    Таблица кодов ASCII делится на две части.

    Международным стандартом является лишь первая половина таблицы, т.е. символы с номерами от 0 (00000000), до 127 (01111111).

    Структура таблицы кодировки ASCII

    Порядковый номер

    Код

    Символ

    0 - 31

    00000000 - 00011111

    Символы с номерами от 0 до 31 принято называть управляющими.
    Их функция – управление процессом вывода текста на экран или печать, подача звукового сигнала, разметка текста и т.п.

    32 - 127

    00100000 - 01111111

    Стандартная часть таблицы (английский). Сюда входят строчные и прописные буквы латинского алфавита, десятичные цифры, знаки препинания, всевозможные скобки, коммерческие и другие символы.
    Символ 32 - пробел, т.е. пустая позиция в тексте.
    Все остальные отражаются определенными знаками.

    128 - 255

    10000000 - 11111111

    Альтернативная часть таблицы (русская).
    Вторая половина кодовой таблицы ASCII, называемая кодовой страницей (128 кодов, начиная с 10000000 и кончая 11111111), может иметь различные варианты, каждый вариант имеет свой номер.
    Кодовая страница в первую очередь используется для размещения национальных алфавитов, отличных от латинского. В русских национальных кодировках в этой части таблицы размещаются символы русского алфавита.

    Первая половина таблицы кодов ASCII


    Обращаю ваше внимание на то, что в таблице кодировки буквы (прописные и строчные) располагаются в алфавитном порядке, а цифры упорядочены по возрастанию значений. Такое соблюдение лексикографического порядка в расположении символов называется принципом последовательного кодирования алфавита.

    Для букв русского алфавита также соблюдается принцип последовательного кодирования.

    Вторая половина таблицы кодов ASCII


    К сожалению, в настоящее время существуют пять различных кодировок кириллицы (КОИ8-Р, Windows. MS-DOS, Macintosh и ISO). Из-за этого часто возникают проблемы с переносом русского текста с одного компьютера на другой, из одной программной системы в другую.

    Хронологически одним из первых стандартов кодирования русских букв на компьютерах был КОИ8 ("Код обмена информацией, 8-битный"). Эта кодировка применялась еще в 70-ые годы на компьютерах серии ЕС ЭВМ, а с середины 80-х стала использоваться в первых русифицированных версиях операционной системы UNIX.

    От начала 90-х годов, времени господства операционной системы MS DOS, остается кодировка CP866 ("CP" означает "Code Page", "кодовая страница").

    Компьютеры фирмы Apple, работающие под управлением операционной системы Mac OS, используют свою собственную кодировку Mac.

    Кроме того, Международная организация по стандартизации (International Standards Organization, ISO) утвердила в качестве стандарта для русского языка еще одну кодировку под названием ISO 8859-5.

    Наиболее распространенной в настоящее время является кодировка Microsoft Windows, обозначаемая сокращением CP1251.

    С конца 90-х годов проблема стандартизации символьного кодирования решается введением нового международного стандарта, который называется Unicode . Это 16-разрядная кодировка, т.е. в ней на каждый символ отводится 2 байта памяти. Конечно, при этом объем занимаемой памяти увеличивается в 2 раза. Но зато такая кодовая таблица допускает включение до 65536 символов. Полная спецификация стандарта Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, а также множество математических, музыкальных, химических и прочих символов.

    Попробуем с помощью таблицы ASCII представить, как будут выглядеть слова в памяти компьютера.

    Внутреннее представление слов в памяти компьютера

    Иногда бывает так, что текст, состоящий из букв русского алфавита, полученный с другого компьютера, невозможно прочитать - на экране монитора видна какая-то "абракадабра". Это происходит оттого, что на компьютерах применяется разная кодировка символов русского языка.

    Если вам интересно узнать, как читать двоичные числа, важно понять, как работают двоичные числа. Двоичная система известна как система нумерации «base 2», что означает наличие двух возможных чисел для каждой цифры; один или ноль. Большие числа записываются путем добавления дополнительных двоичных единиц или нулей.



    Понимание двоичных чисел


    Знание того, как читать двоичные файлы, не является критичным для использования компьютеров. Но хорошо понять концепцию, чтобы лучше понять, как компьютеры хранят числа в памяти. Он также позволяет понимать такие термины, как 16-битные, 32-битные, 64-битные и измерения памяти, такие как байты (8 бит).



    «Чтение» двоичного кода обычно означает перевод двоичного числа в базовое 10 (десятичное) число, с которым люди знакомы. Это преобразование достаточно просто выполнить в своей голове, когда вы поймете, как работает бинарный язык.

    Каждая цифра в двоичном числе имеет определенное значение, если цифра не является нулем. После того как вы определили все эти значения, вы просто складываете их вместе, чтобы получить 10-значное десятичное значение двоичного числа. Чтобы увидеть, как это работает, возьмите двоичное число 11001010.


    1. Лучший способ прочитать двоичное число - начать с самой правой цифры и двигаться влево. Сила этого первого местоположения равна нулю, то есть значение для этой цифры, если это не ноль, равно двум степеням нуля или единице. В этом случае, поскольку цифра является нулем, значение для этого места будет равно нулю.



    2. Затем перейдите к следующей цифре. Если это один, то рассчитайте два в степени одного. Запишите это значение. В этом примере значение равно степени два, равной двум.



    3. Продолжайте повторять этот процесс, пока не дойдете до самой левой цифры.



    4. Чтобы закончить, все, что вам нужно сделать, это сложить все эти числа вместе, чтобы получить общее десятичное значение двоичного числа: 128 + 64 + 0 + 0 + 8 + 0 + 2 + 0 = 202 .


    Заметка : Другой способ увидеть весь этот процесс в форме уравнения заключается в следующем: 1 x 2 7 + 1 x 2 6 + 0 x 2 5 + 0 x 2 4 + 1 x 2 3 + 0 x 2 2 + 1 x 2 1 + 0 х 2 0 = 20 .


    Двоичные числа с подписью


    Приведенный выше метод работает для базовых двоичных чисел без знака. Однако компьютерам нужен способ представления отрицательных чисел также с помощью двоичного кода.


    Из-за этого компьютеры используют двоичные числа со знаком. В системе этого типа самая левая цифра известна как знаковый бит, а остальные цифры известны как биты амплитуды.


    Чтение двоичного числа со знаком почти такое же, как и без знака, с одним небольшим отличием.


    1. Выполните ту же процедуру, как описано выше для двоичного числа без знака, но остановитесь, как только вы достигнете самого левого бита.



    2. Чтобы определить знак, осмотрите крайний левый бит. Если это единица, то число отрицательное. Если это ноль, то число положительное.



    3. Теперь выполните те же вычисления, что и раньше, но примените соответствующий знак к числу, указанному крайним левым битом: 64 + 0 + 0 + 8 + 0 + 2 + 0 = -74 .


    4. Бинарный метод со знаком позволяет компьютерам представлять числа, которые являются положительными или отрицательными. Однако он потребляет начальный бит, а это означает, что для больших чисел требуется немного больше памяти, чем для двоичных чисел без знака.