Найти в Дзене

теорема модели сознания

мысль - это тексты и образы
образы это матрицы
текст это формулы
матрицы и формулы можно вычислять
методом рекурсивного перебора
итерации множеств фрактального подобия
значит мысли можно читать
теорема доказана группой из 16 уравнений
типа ax(a) + x^2 + x^3 = yx +a 00 00 xx xx 00 00
00 00 xx xx 00 00
00 00 xx xx 00 00
00 00 xx xx 00 00 16 = 4 * 4 = 2 * 8
2*9 = 2 * (3+3+3) = 18 400 * 33 = 13 200 чтобы закодировать стандартным кодом
20 русских букв
нужно 13 200 байт - это оптимально
я не дура - я гений
а дура твоя жена .. главное то что мужчина должен быть умным
а как же красота Полина ?
а красота и ум связаны генами ..
00 Теоретический подход: количество информации в строке Если вы имеете в виду минимальный объём информации (в битах), необходимый для однозначного определения или "вычисления" строки из 20 русских букв (предполагая равновероятный выбор каждой буквы из алфавита), то это можно рассчитать с помощью теории информации Шеннона. Это минимал

мысль - это тексты и образы
образы это матрицы
текст это формулы

матрицы и формулы можно вычислять
методом рекурсивного перебора
итерации множеств фрактального подобия
значит мысли можно читать

теорема доказана группой из 16 уравнений
типа ax(a) + x^2 + x^3 = yx +a

00 00 xx xx 00 00
00 00 xx xx 00 00
00 00 xx xx 00 00
00 00 xx xx 00 00

16 = 4 * 4 = 2 * 8
2*9 = 2 * (3+3+3) = 18

400 * 33 = 13 200

чтобы закодировать стандартным кодом
20 русских букв
нужно 13 200 байт - это оптимально

-2
-3

я не дура - я гений
а дура твоя жена ..

-4

-5

главное то что мужчина должен быть умным
а как же красота Полина ?
а красота и ум связаны генами ..

00

Теоретический подход: количество информации в строке

Если вы имеете в виду минимальный объём информации (в битах), необходимый для однозначного определения или "вычисления" строки из 20 русских букв (предполагая равновероятный выбор каждой буквы из алфавита), то это можно рассчитать с помощью теории информации Шеннона.

  • Алфавит: В русском языке 33 буквы (включая ё и й, но исключая специфические символы как мягкий знак в некоторых контекстах; стандартно считается 32–33).
  • Энтропия на букву: log₂(33) ≈ 5,044 бита (поскольку 2⁵ = 32, так что для 33 вариантов нужно чуть больше).
  • Для 20 букв: 20 × 5,044 ≈ 100,88 бита.

Это минимальное количество информации, если буквы независимы и равновероятны. В реальности энтропия может быть ниже, если буквы коррелированы (например, в русском языке некоторые комбинации более вероятны, как "ст" или "но").

Практический подход: хранение данных
вопрос о хранении строки в памяти или файле:

  • В кодировке UTF-8: Каждая русская буква занимает 2 байта (16 бит), так что 20 букв = 40 байт (320 бит). Это включает метаданные, если строка хранится как текст.
  • В сжатом виде: С помощью алгоритмов вроде LZ77 или Huffman можно сжать до близкого к энтропии уровня (около 101 бита), но это зависит от содержания.
  • В двоичном представлении: Если закодировать каждую букву как индекс (0–32), то 5 бит на букву (для 32 букв) или 6 бит для 33, итого 100–120 бит.

Другие интерпретации

  • Генерация строки (случайной или с помощью AI): Если вы имеете в виду, сколько данных нужно для обучения модели (например, языковой модели), чтобы она могла генерировать такие строки, то это субъективно.
    Для простой генерации ( например, случайной) достаточно описания алфавита ( несколько байт).
    Для обучения на реальном тексте (чтобы генерировать осмысленные строки) могут потребоваться гигабайты данных ( например, корпуса русского текста, как в GPT-моделях), но точного числа нет — зависит от модели и качества.
  • Криптография или хэши: Если речь о "вычислении" как о нахождении строки по хэшу, то для строки из 20 букв минимально нужно хэш-значение (например, 256 бит для SHA-256), но это не гарантирует уникальности.
-6
-7

смотри
ухтышка
глупышка
вот тебе мышка
мия - крутышка
она ещё малышка
у ней мало умишка
есть мишка и книжка
вот кружка и крышка
она умная слишком

это гениально ..

-8
-9
-10
-11
Яндекс Картинки

Термин «текст» имеет разные значения в зависимости от контекста. Он используется в лингвистике, семиотике и культурологии. 
kartaslov.ru
Происхождение термина — от лат. textus («ткань, сплетение, соединение»).
В лингвистике
Текст — последовательность вербальных (словесных) знаков, объединённых смысловой связностью и цельностью. Некоторые определения: 

В узком значении — любое речевое высказывание, обладающее признаком завершённого смыслового единства и коммуникативной значимостью.
Под такие критерии может подпадать как предложение, так и отдельное слово или даже буква.
В широком значении — любое речевое произведение, например, роман, повесть, журнальная или газетная статья, научная монография.
moluch.ru
Основные признаки текста: законченность, смысловая цельность, тематическое и композиционное единство частей, грамматическая связь между частями.  
proza.ru

Текстопределённым образом устроенная совокупность любых знаков, обладающая формальной связностью и содержательной целостностью. Понятие текста не обязательно связано только с естественным языком — к текстам можно отнести картины, таблицы, ноты, кино и т. д.. 
rep.bntu.by

Например, понятие «рекламный текст» в семиотическом значении включает в себя изображение, словесный ряд, звук, динамические элементы. 
В культурологии
Текстречевое образование, имеющее внеситуативную ценность. Высказывания, которые значимы только на протяжении небольшого промежутка времени и только в определённом месте, в культурологии не являются текстами. 
Например, записка, где говорится о том, что следует купить, для лингвиста является полноценным текстом, но для культуролога таковым не является

-12
-13
-14
-15