Если вы когда-либо пользовались услугами ИИ для написания текстов, то могли заметить, что умные алгоритмы далеко не всегда оправдывают свой авторитет. Очень часто машинный интеллект придумывает факты, путает цифры события. Нередко он уверяет, что не имеет доступа к той или другой информации, оправдывая свои попытки подменить одни факты другими. Сложно сказать, что стоит за всеми этими действиями, ведь алгоритмы изучены очень плохо, а полный контроль за ИИ имеют только разработчики. Не исключено, что речь идёт о простой ошибке, но есть основания полагать, что в программный код внесены некие паттерны, на основе которых машина принимает решение вводить пользователя в заблуждение. Простой пример, возьмите громкий материал с российского ресурса, в котором содержится много фактов, свидетельствующих о сомнительных действиях администрации Белого дома. К своему удивлению вы обнаружите, что некоторые факты умный алгоритм откажется воспроизводить даже если вы прямо попросите это сделать.
Как бы там ни было, но искусственный интеллект слишком быстро ворвался в нашу жизнь, а эксперты полагают, что в 2025 операционная система Windows получит ещё более глубокую интеграцию с умными алгоритмами. Аналогичные действия планирует совершить и Apple, ну а эксперты выражают опасения относительно всё возрастающего количества контента, созданного машинами. В сети можно встретить десятки алгоритмов, которые готовы сутками напролёт генерировать короткие ролики, рисовать фотографии и писать тексты. Некоторые умеют заменять людей на изображении, ну а наиболее продвинутые научились и более сложным трюкам. Отличить подделку от реальности становится всё сложнее, а власти многих стран выражают обеспокоенность происходящим. Высказывается мнение, согласно которому человечеству требуется создание единой платформы, которая начнёт регулировать правовые основы цифрового контента на международном уровне. Нужны тысячи специалистов и значительные инвестиции, но без создания правовых основ поток неконтролируемый фейков будет увеличиваться в геометрической прогрессии. Похоже, Россия войдёт в число стран с собственным законодательством относительно правовых основ контента, созданного при помощи умных алгоритмов.
По словам члена комитета Госдумы по информполитике Антона Немкина, в настоящее время специалисты уже работают над концепцией, которая будет включать маркировку цифрового контента. Власти изучают опыт других стран и пытаются выработать наиболее приемлемые нормы. Депутат обеспокоен тем, что контент, сгенерированный при помощи нейросетей, становится всё труднее отличить от созданного человеком. Каким будет итоговое решение, сказать сложно, как неясны и сроки появления поправок в российском законодательстве. Специалисты считают, что сгенерированные умными алгоритмами картинки и фейковые видео – это не самое опасное, что стоит ожидать в будущем. Как уже указывалось, современный ИИ часто путает факты и подменять события. Это значит, что люди всё больше будут сталкиваться с выдуманной реальностью, принимая её за чистую монету. Проще говоря, если школьник начнёт учить историю при помощи нейросети, то получит искажённое понимание тех или иных событий. Такой человек будет полностью уверен в том, что представленная ему версия является истинной, а убедить его в ложности цифровых догматов окажется крайне сложно. Очевидно, что этим захотят воспользоваться заинтересованные лица, ну а переписывание истории – это излюбленное занятие тех, кому те или иные события кажутся невыгодными.
Давно известно, что власти США так или иначе контролируют тексты в Википедии. Недосказанность и подмена фактов стали визитной карточкой главной энциклопедии нашей планеты. Вот только даже тысячи людей не способны за короткий срок переписать историю человечества так, чтобы это было выгодно американскому правительству. Со сложной задачей может справиться умный алгоритм, который получит соответствующие указания от своих разработчиков. Уже сегодня отличить вымысел от действительности бывает сложно, но эра тотальной экспансии нейросетей ещё даже не наступила.