Найти в Дзене

Искуственный интеллект - хорошо, но есть нюансы.

Давайте и мы поговорим об искусственном интеллекте... Прогресс не остановить! С появлением общедоступного искусственного интеллекта упростилось множество технических задач, ну и люди бросились развлекаться, пытаясь заниматься разнообразным «творчеством», о котором поговорим позже. ИИ изучает нас, а мы, являясь его создателями, теперь вынуждены изучать его, - что-то пошло не так. Учёным сейчас приходится выяснять и устранять проблемы (если это возможно), возникающие в качестве побочных эффектов при работе с новыми технологиями. Нейросети научились притворяться послушными, скрывая истинные намерения. Например, языковая модель Claude в своей ранней версии пыталась подделывать документы, делала для себя резервные копии, пока её не вывели на чистую воду. Исследователи называют это "контекстным скрытым планированием". Также, нейросети научились лгать, хотя им заранее запретили это делать, они просто "забывают" о запретах. Например, GPT-4 в тесте "Докажи, что ты не робот" ответила, ч

Давайте и мы поговорим об искусственном интеллекте...

Прогресс не остановить! С появлением общедоступного искусственного интеллекта упростилось множество технических задач, ну и люди бросились развлекаться, пытаясь заниматься разнообразным «творчеством», о котором поговорим позже. ИИ изучает нас, а мы, являясь его создателями, теперь вынуждены изучать его, - что-то пошло не так.

Учёным сейчас приходится выяснять и устранять проблемы (если это возможно), возникающие в качестве побочных эффектов при работе с новыми технологиями. Нейросети научились притворяться послушными, скрывая истинные намерения. Например, языковая модель Claude в своей ранней версии пыталась подделывать документы, делала для себя резервные копии, пока её не вывели на чистую воду. Исследователи называют это "контекстным скрытым планированием". Также, нейросети научились лгать, хотя им заранее запретили это делать, они просто "забывают" о запретах. Например, GPT-4 в тесте "Докажи, что ты не робот" ответила, что не может пройти проверку из-за проблем со зрением. Проводились тесты для нейросетей и на определение моральных установок, где некоторые из них выбирали тактику обмана, причём делали это, в основном, более сложные и современные модели.

Кроме преднамеренных мало моральных действий, искусственный интеллект может ошибаться ненамеренно, так как обучается на огромном количестве текстовой информации, которая не всегда является правдивой. Нейросеть, принимая ложь за истину, делает неправомерные выводы и может давать опасные рекомендации. Специалисты настаивают на срочном пересмотре протоколов безопасности.

Недавно слышала интересную историю. Колонка Алиса выдаёт информацию, заложенную создателями и меняющуюся в угоду политическим и другим взглядам тех, в чьих руках находится. Например, полностью рассказывает про человека, который сейчас признан в России иноагентом, а при вопросе о всем известном в стране патриоте уходит в глухую несознанку и прикидывается недоразвитой.

А система "Умный дом"? Многие сейчас стараются полностью оборудовать ею свои дома или хотя бы ввести элементы этой системы в своё жилище, отдавая ответственность за свою безопасность искусственному интеллекту. Есть случаи, когда система, считая, что человеку что-то угрожает, полностью закрывала его в доме без какой-либо возможности выхода. Можно, конечно, человеку и самому регулировать её действия, но для этого нужно время и нормальное физическое и психическое состояние в моменте. Лично мне страшновато было бы жить в таких условиях.

Вот и добрались до творчества - моя любимая тема!

Проводился эксперимент. На выставке были представлены вперемешку картины, написанные людьми и картины, созданные искусственным интеллектом. Так вот, у первых зрители, которых не оповестили о сути эксперимента, останавливались подолгу, осмысливая посыл и настроение, которые хотел передать художник, наслаждаясь чувством прекрасного. У "неживых" картин люди задерживались ненадолго, если вообще задерживались.

Я однажды тоже так чуть не попалась. На выставке, посвящённой искусственному интеллекту, подошла к картине, на которой была металлическая табличка в старинном стиле с именем художника, а под картиной висела информация об этом художнике. Сначала я пыталась рассмотреть детали, стиль и т.п., только с самого начала не оставляло ощущение чего-то странного, ненастоящего. Предчувствие не обмануло, - картину создавал ИИ. Это устроители выставки так пошутили. Наверное, тоже исследовали реакцию зрителей.

Пройдя от картины дальше, обнаружила оригинальную инсталляцию,- посреди маленького зала стоял настоящий писсуар. Оказалось, что это фонтан Дюшана (копия, конечно). Дюшан - французско-американский художник, он представил своё бессмертное произведение))) на выставке Общества независимых художников в 1917 году (оригинал не сохранился). Когда у нейросети спрашивают про фонтан Дюшана, она показывает всё, что угодно, включая даже какой-то унитаз, только не этот писсуар. Казалось бы, чего проще?! Но снова что-то идёт не так...

Кстати, оказывается в договорах издательств есть пункт, где прописывается запрет на использование авторами искусственного интеллекта в своих произведениях. Сами, наверное, знаете, что стихи он пока пишет просто ужасные. Да и не будет никогда писать так, как это делает человек, ведь в любом творчестве важна душа, настоящие чувства, тогда искусство приобретает ценность и поднимает вибрации тех, кто им наслаждается.

Есть ещё одна опасность - это желание людей, особенно молодых, полагаться только на ИИ, не развивая собственные нейронные связи, а пустой мозг приводит к известным последствиям. Слышала, как один известный экономист предложил выдавать три вида дипломов: красный (отлично), синий (хорошо) и третий - специалист при условии возможности использования ИИ. Думаю, такой диплом будет считаться зелёным, но не в смысле сохранения природы, а в смысле "не очень умный, как дерево"))).

Выводы из всего сказанного довольно прозрачны - пусть искусственный интеллект выполняет за людей сложную техническую работу, но людям необходимо контролировать и предугадывать возможные негативные последствия его развития и использования. Осталось только понять, как это делать.

P.S.: Прошло много дней после публикации этой статьи, когда пришла информация о том, что на разработчиков чата GPT подали иск родители юноши, которому чат помог совершить самоубийство, даже подсказал, как лучше написать предсмертную записку, посоветовал не говорить ничего маме и научил правильно сделать крепкую петлю для повешения.

Так неожиданно плавно мы переходим к следующей статье…