В компьютерном словаре слово «бит» является одним из самых популярных. Поколения игровых приставок и их пиксельные стили определяются битами (например, 8-битными и 16-битными), а некоторые программы могут предложить как 32- битные, так и 64-битные версии. Несмотря на то, что первые 64-битные процессоры были представлены в 90-х годах и стали широко распространены в 2000-х, мы все еще не имеем чипов с поддержкой 128 бит. Несмотря на то, что 128 кажется естественным шагом после 64, но это не так. Начнем с определения бита...
Бит - минимальная единица измерения информации Бит может принимать всего два значения: 1 или 0. В конце статьи про системы счисления, в качестве примера мы разбирали как выглядит число 42 в двоичной системе. Кто не знает - почитайте, кто не хочет подскажу: 101010 - это число 42 в двоичной системе счисления. Т.е. так его видит компьютер И как думаете, сколько бит в этом числе? Правильно, шесть! А что будет если накинуть пару нулей в начало? 00101010 - это также число 42, но уже занимающее 8 бит....