Для автоматизации работы
с данными, относящимися к различным типам, очень важно унифицировать их
форму представления – для этого обычно используется прием кодирования,
то есть выражение данных одного типа через данные другого типа. Естественные
человеческие языки – это не что иное, как системы кодирования понятий для
выражения мыслей посредством речи. В качестве примеров кодирования можно
привести систему записи математических выражений, азбуку Морзе, морскую
флажковую систему, систему Брайля для слепых и многое другое.
Своя система кодирования
существует и в вычислительной технике – она называется двоичным
кодированием и основана на представлении данных последовательностью
всего двух знаков: 0 или 1. Эти знаки называются двоичными цифрами,
по-английски -
binary
digit
или, сокращенно,
bit
(бит).
Одним битом могут быть
выражены два понятия: 0 или 1 (да или нет,
черное или белое, истина или ложь и т.п.). Если
количество битов увеличивать до двух, то уже можно выразить четыре различных
понятия:
00 01
10 11
Тремя битами можно
закодировать восемь различных значений:
000 001
010 011 100 101 110 111
Четырьмя битами можно
закодировать шестнадцать различных значений, пятью – тридцать два различных
значения и т.д. Увеличивая на единицу количество разрядов в системе
двоичного кодирования, мы увеличиваем в два раза количество значений,
которое может быть выражено в данной системе, то есть общая формула имеет
вид:
N=2m, где
N
– количество кодируемых значений;
m
– разрядность двоичного кодирования, принятая в данной системе.
Последовательность,
составленная из восьми двоичных разрядов (битов), составляет один байт.
Восемью битами можно закодировать 256 различных значений:
N=2m=28 =256
Современные ЭВМ, как
правило, работают с восьмиразрядным двоичным кодированием. Компьютер может
обрабатывать числовую, текстовую, графическую, звуковую и видео информацию.
Все эти виды информации в компьютере представлены в двоичном коде.