А ниже, узнаем почему килобайт это не 1000 байт, а 1024 Названия «бит» и «байт» появились не случайно — за ними стоит вполне логичная история из ранней эпохи вычислительной техники. Бит - это сокращение от английского binary digit («двоичная цифра»). Сам термин ввёл математик и инженер Джон Тьюки в 1940-х годах. Идея проста: если вся цифровая техника работает на двух состояниях (0 и 1), то минимальная единица информации - это и есть одна «двоичная цифра», то есть bit. С байтом всё чуть интереснее. Слово byte придумал инженер Вернер Бухгольц в 1956 году во время работы в IBM. Ему нужно было название для группы битов (изначально их количество могло быть разным, не обязательно 8). Слово специально написали как byte, а не bite («укус»), чтобы избежать путаницы в произношении. Со временем закрепилось, что: Интересно, что в ранних компьютерах байт мог быть и 6, и 7, и даже 9 бит - стандартизация на 8 бит произошла позже, когда архитектуры стали унифицироваться. Если совсем упростить: бит