Начнем с того, что компьютеры — ребята прямолинейные. Им по барабану наши чувства и оттенки смыслов, для них всё — это нули и единицы. Если мы берем стандартную кодировку ASCII, которая уже сто лет как база, то там на один символ полагается ровно 8 бит или 1 байт. Считаем на пальцах: «с», «л», «о», «в», «о» — пять букв. Умножаем пять на восемь и вуаля, получаем 40 бит. Вроде бы дело в шляпе? Как бы не так. Мир давно перестал быть плоским, и кодировки тоже не стоят на месте. Сегодня правит бал Unicode, а точнее его популярная версия UTF-8. Здесь всё становится чуть интереснее. Дело в том, что кириллица — это вам не латиница, она требует больше места в памяти. В UTF-8 русская буква весит уже 2 байта. И вот тут наша арифметика начинает давать сбой, если не держать ухо востро. Пять букв превращаются в 10 байт, а это уже, на минуточку, 80 бит. Ого, приплыли, цифра выросла в два раза! А ведь есть ещё UTF-16, где даже обычный пробел может «отъесть» прилично места. Понимаете, к чему я клоню? О