Наш компьютер представляет все (текст, картинки, видео и т.д.) в виде единиц и нулей, однако он должен нам показывать все в нормальном виде. Мы ведь не поймем, что означает огромное количество непрерывных нулей и единиц. Что такое UTF-8? Ответ кроется в самой расшифровке аббревиатуры, а именно "Unicode Transformation Format, 8-bit", что буквально означает "формат преобразования Юникода". Сложно? Давай разбираться. Двоичный код Как мы уже поняли, Юникод и UTF-8 это не нечто раздельное. UTF-8 является лишь представлением Юникода в 8-битном виде. Самая простая и основная единица двоичного кода - это бит, который является 1 или 0...
1992 г. Создана кодировка UTF-8. UTF-8 (от англ. Unicode Transformation Format, 8-bit — «формат преобразования Юникода, 8-битный») — одна из общепринятых и стандартизированных кодировок текста, которая позволяет хранить символы Unicode. Сам же формат UTF-8 был изобретён 2 сентября 1992 года Кеном Томпсоном и Робом Пайком и реализован в Plan 9. В качестве BOM использует последовательность байт EF16, BB16, BF16 (что у неё самой является трёхбайтовой реализацией символа FEFF16). Одним из преимуществ является совместимость с ASCII — любые их 7-битные символы отображаются как есть, а остальные выдают пользователю мусор (шум).