Предыдущий урок: Как работает компьютер? Часть 16. Системы счисления.
Когда мы думаем о работе компьютера, нам легко представить его как «умную машину», которая понимает команды и умеет их выполнять. Но если присмотреться глубже, компьютер внутри очень прост: он оперирует только с 0 и 1. Любые программы, тексты, картинки, музыка или фильмы в итоге сводятся к длинным последовательностям битов.
Возникает вопрос: как же компьютер понимает, что одни и те же нули и единицы — это, например, буква «А», а другие — число 9 или знак «%»? Здесь на помощь приходят кодировки.
Кодировка — это своего рода словарь или таблица, где каждой комбинации нулей и единиц сопоставлен определённый символ. Символом может быть буква, цифра, знак препинания или даже пробел.
Например, нажатие клавиши на клавиатуре. Представим, что вы нажимаете на клавиатуре цифру 5. Для вас это очевидно — вы хотели написать число. Но компьютер не понимает сам по себе, что значит «пять». Клавиатура посылает в компьютер код, соответствующий кнопке «5». Операционная система смотрит в таблицу кодировки и определяет: «ага, это символ 5». Теперь внутри программы, например в текстовом редакторе, появляется символ «5», а не какой-то непонятный набор битов.
То есть именно кодировка позволяет компьютеру и человеку «договориться» о том, что определённые комбинации чисел будут значить определённые символы.
В 1960-х годах появилась кодировка ASCII (American Standard Code for Information Interchange). Она стала настоящим стандартом и долгое время использовалась повсюду.
В ASCII каждому символу соответствует число от 0 до 127. Например:
65 — это буква «A»,
66 — это буква «B»,
48 — это цифра «0»,
49 — это цифра «1».
Таким образом, когда вы нажимаете клавишу «A», компьютер получает число 65, которое в двоичной системе выглядит как 01000001.
ASCII был очень удобным, но у него была одна проблема: он рассчитан только на английский язык и базовые знаки. Русских букв, китайских иероглифов, арабской вязи там просто нет.
Когда компьютеры стали использоваться по всему миру, стало ясно: одной таблицы ASCII недостаточно. Каждый язык пытался придумать свою кодировку, и начался настоящий хаос. В одном файле буква «Я» могла отображаться как «?» или вообще как кракозябра, если кодировка не совпадала.
Чтобы решить проблему, был создан стандарт Unicode. Его цель — дать уникальный номер каждому символу, независимо от языка. В Unicode есть всё: кириллица, латиница, китайские иероглифы, эмодзи и даже редкие древние алфавиты.
Но если символов так много, возникает вопрос: как хранить их в компьютере? Для этого используется несколько способов записи, и самый популярный из них — UTF-8.
UTF-8 — это кодировка, которая может использовать 1 байт для простых символов (например, для латинских букв и цифр, как в ASCII), но если нужно, может расширяться до 2, 3 или даже 4 байт. То есть английские тексты будут занимать мало места, а тексты с китайскими иероглифами смогут корректно отображаться без проблем.
И вот важный момент: UTF-8 сегодня — самая распространённая кодировка в мире. Практически весь интернет работает на UTF-8, и большинство современных компьютеров и телефонов используют именно её.
Чтобы стало ещё понятнее, давай рассмотрим шаг за шагом тот же пример с вводом числа на клавиатуре, но теперь с учётом ASCII и UTF-8:
- Вы нажимаете клавишу «5».
- Клавиатура отправляет так называемый скан-код в компьютер.
- Теперь компьютер понимает, что вы нажали клавишу 5
- Компьютер в таблице кодировки ищет соответствие и для символа 5 и находит его 00110101 (число 53 в ASCII и UTF-8).
- После чего компьютер начинает оперировать этой последовательностью битов для отписки числа 5 на экране монитора.
Без кодировок компьютер не смог бы показывать текст. Мы бы видели только нули и единицы, а это было бы совершенно непрактично.
Кодировки — это «мост» между человеческим языком и машинными данными. Благодаря им мы можем писать сообщения, читать книги на разных языках, программировать, создавать сайты. И хотя в истории компьютеров было много разных кодировок, сегодня мир практически сошёлся на одной — UTF-8. Это удобно, универсально и избавляет от старых проблем несовместимости.
Таким образом, можно сказать: кодировка — это не просто техническая деталь, а фундаментальная часть работы компьютеров. Она участвует в каждом шаге, когда мы вводим текст, сохраняем файл или отправляем сообщение.
Спасибо за внимание!
Следующий урок: Как работает компьютер? Часть 18. Множества.
👍 Ставьте лайки если хотите разбор других интересных тем.
👉 Подписывайся на IT Extra на Дзен чтобы не пропустить следующие статьи
Если вам интересно копать глубже, разбирать реальные кейсы и получать знания, которых нет в открытом доступе — вам в IT Extra Premium.
Что внутри?
✅ Закрытые публикации: Детальные руководства, разборы сложных тем (например, архитектура высоконагруженных систем, глубокий анализ уязвимостей, оптимизация кода, полезные инструменты и объяснения сложных тем простым и понятным языком).
✅ Конкретные инструкции: Пошаговые мануалы, которые вы сможете применить на практике уже сегодня.
✅ Без рекламы и воды: Только суть, только концентрат полезной информации.
✅ Ранний доступ: Читайте новые материалы первыми.
Это — ваш личный доступ к экспертизе, упакованной в понятный формат. Не просто теория, а инструменты для роста.
👉 Переходите на Premium и начните читать то, о чем другие только догадываются.
👇
Понравилась статья? В нашем Telegram-канале ITextra мы каждый день делимся такими же понятными объяснениями, а также свежими новостями и полезными инструментами. Подписывайтесь, чтобы прокачивать свои IT-знания всего за 2 минуты в день!