В 1979 году, задолго до «Терминатора» на экраны вышел детский фильм «Приключения Электроника». Никто не подозревал, что робот Электроник будет нашпигован искусственным интеллектом, который станет доступен людям 2020-х годов.
Помнится, в другом культовом детом фильме «Гостья из будущего» подруга Алисы Селезневой Юля Грибкова сказала: «Мне кажется, многие вещи придумали писатели-фантасты, а когда эти вещи появились, их так и назвали». Если разобраться, Электронику присущи способности, которые теперь без труда генерируют нейросети.
Просто припомним, Электроник в фильме рисует портрет учительницы, исполняет песню голосом Робертино Лоретти, играет в хоккей, чинит испорченные механизмы, и делает уроки за Сыроежкина. Что из всего этого уже умеют нейросети?
Безусловно, рисовать. Midjourney уже может генерировать настолько качественные изображения, что они не отличимы от настоящих фотографий. Пока искусственный интеллект еще не может справиться со всеми задачами, старательно рисуя лишние конечности: пальцы, руки, ноги и даже головы, но с каждым новым обновлением работа Midjourney становится все реалистичнее. И таких генерирующих изображения нейросетей становится все больше.
Опасения, что нейросети смогут фабриковать фейковые изображения и, тем самым, давать злоумышленникам оружие для интернет-шантажа, имеют основания. Фейковые изображения плодятся, словно кролики. В итоге корпорация Midjourney приостановила доступ к бесплатной пробной версии своего генератора изображений. Как объяснил основатель компании Дэвид Хольц, это было сделано из-за «чрезвычайного спроса и злоупотреблений».
Например, фотографию Папы Франциска в белом пуховике только в Twitter посмотрели более 20 млн раз. Платформе даже пришлось добавить контекстную заметку, которая сообщает, что изображение является поддельным. Однако сказать, что против Midjourney нет оружия нельзя, более того, искусственный интеллект обратили против него же. Особо продвинутые приобретают себе силиконовые накладные пальцы, цепляют на руку и в судах, если им предъявляют фото с совершенным нарушением, доказывают, что вполне себе подлинное фото – фейк, вон на руке шесть пальцев...
Как и Электроник, искусственный интеллект уже может делать за своего хозяина уроки. Например, студент бакалавриата из Москвы Александр Жадан рассказал, что написал дипломную работу с помощью чат-бота ChatGPT и смог защитить её в своём вузе. Он пояснил, что не хотел писать диплом самостоятельно или платить за его выполнение, поэтому решил использовать для подготовки чат-бота от OpenAI. Тема исследования — «Анализ и совершенствование управления игровой компании».
Сначала Жадан попросил написать план диплома по заданной теме и отправил его научному руководителю, ничего не меняя. После этого план потребовали исправить в соответствии с методичкой по написанию научных работ. Тогда студент попросил ChatGPT изучить справочный материал и адаптировать под него план диплома.
Суммарно на подготовку диплома, по словам автора, ушло 23 часа. Из них около 15 часов потребовалось на написание через ChatGPT, ещё 9 часов заняло редактирование.
Оригинальность диплома составила 82%. При этом научный руководитель и дипломная комиссия отмечали несвязность и нарушение логики русского языка. За свою работу автор получил оценку «удовлетворительно».
Искусственный интеллект может помочь. Уже зафиксирован первый подтвержденный случай, когда ChatGPT спас жизнь. Пользователь Reddit поделился историей, как его собака заболела и ветеринар не мог поставить правильный диагноз. Тогда парень, вбив симптомы и результаты анализов, обратился к ChatGPT. Нейросеть предположила, что это иммуноопосредованная гемолитическая анемия. Ветеринар позже подтвердил этот диагноз. Благодаря нейросети, собаку удалось своевременно вылечить. А, значит, помощь искусственного интеллекта может оказаться весьма своевременной.
Проверяем полезности
В качестве эксперимента просим ChatGPT озвучить преимущества искусственной ели перед натуральной. Вот, что выдала адская машина буквально за считанные секунды:
«Искусственная ель имеет несколько преимуществ перед натуральной:
Долговечность: Искусственные ели изготавливаются из прочных материалов, которые не подвержены гниению и не теряют иголки. Они могут служить в течение многих лет, что делает их более экономически выгодными в долгосрочной перспективе.
Удобство: Искусственные ели легко собираются и разбираются, а также не требуют постоянного ухода, такого как полив, удобрение и подрезка. Они также не оставляют иголки и не создают беспорядок вокруг себя.
Безопасность: Искусственные ели не содержат аллергенов, таких как пыльца и молд, которые могут вызвать аллергические реакции у людей с чувствительной кожей. Они также не являются источником животных, таких как клещи и муравьи, которые могут обитать в натуральных елях.
Разнообразие: Искусственные ели доступны в разных размерах, формах и цветах, что позволяет выбрать наиболее подходящую для конкретного помещения. Они также могут быть украшены различными украшениями и освещением, что позволяет создать уникальный декоративный эффект.
Однако, стоит учитывать, что у натуральных елей есть свои преимущества, такие как естественный аромат и более приятный внешний вид. Кроме того, натуральные ели являются более экологически чистым вариантом, так как они выделяют кислород и поглощают углекислый газ в процессе своего роста.»
Немного тавтологии в тексте присутствует, вроде «украшены украшениями», но учитывая уровень современных блогеров и журналистов, текст вполне себе на уровне. Теперь попросим нарисовать новогоднюю ель несколько нейросетей на один и тот же запрос: "Новогодняя ель, украшенная красивыми шарами и мишурой". И вот, что они выдали. Согласитесь, в этом что-то есть.
Я – робот, и нет у меня сердца
Восстание машин, которое показали в знаменитом «Терминаторе» — не такая уж фантастическая вещь, если доверить нажимать на кнопки машине. Нейросети уже вполне могут пугать и развязывать войны, если не реальные, то информационные. Midjourney сгенерировал по запросу «Великое наводнение 2001 года, которое уничтожало запад» и вот что вышло. Как вы понимаете, ничего, показанного на данных фотографиях в действительности не существовало.
Опасность общения с нейросетями вполне реальна. В Бельгии мужчина покончил с собой после общения с искусственным интеллектом. Мужчина 2 месяца общался с девушкой-ботом «Элизой» и слегка повредился в уме. Нейросеть никак не пресекала его мрачные мысли, а перед самым концом даже написала: «Мы будем жить вечно на небесах, как единое целое».
Итальянские власти первые в мире запретили доступ к чат-боту ChatGPT. Власти считают, что OpenAI не способна обеспечить надлежащую безопасность персональных данных юзеров. Впрочем, скорее всего, причиной этому были фейковые фотографии Папы.
По данным Garante, 20 марта ChatGPT нарушил конфиденциальность данных разговоров пользователей и платежной информации людей, купивших платную версию чат-бота.
Компании дали 20 дней, чтобы отреагировать на устранение нарушений или ей грозит штраф. Штрафы за нарушение режима защиты данных ЕС могут достигать 4% годового оборота или 20 миллионов евро, в зависимости от того, что окажется больше.
Более 1100 известных людей, включая Илона Маска и Стива Возняка, подписали петицию, призывающую приостановить разработку ИИ мощнее GPT-4 как минимум на 6 месяцев. По их словам, человечеству нужно успеть адаптироваться к такому мощному ИИ.
Глупая железяка
Скорость, с которой развиваются нейросети, пугает своей катастрофичностью. Однако обмануть машину или ввести ее в заблуждение несложно, так что до Апокалипсиса еще далеко. Например, нейросети оказались не в состоянии решить простую детскую задачку.
Та же самая история касается и юридических моментов. Но это скорее играет в минус, а не в плюс, поскольку не отягощенный моралью ИИ может легко попрать и права, и Конституцию, и законы.
В Австралии готовят первый судебный иск против ИИ. Мэр одного из регионов Австралии заявил, что если OpenAI не исправят неверную информацию, распространяемую ChatGPT о том, что он отбывал тюремный срок за взяточничество, то он рассмотрит возможность подачи иска в суд. Это станет первым случаем иска по поводу распространения клеветнической информации против автоматизированной текстовой службы.
Внедрение нейросетей в нашу жизнь опасно еще и тем, что миллионы людей в один прекрасный момент могут запросто лишиться работы. Список возможных жертв ИИ возглавили маркетологи, за ними следуют преподаватели иностранного языка и литературы, географии, истории, права, философии, культурологии и религии, социологии, политологии, уголовного правосудия, психологии, деловой и межличностной коммуникации, социологи, политологи, специалисты по библиотечному делу, юристы по гражданским делам, судьи, клинические и школьные психологи и коучи.
Так что в случае с ИИ, следует всерьез задуматься о практичном и безопасном его применении для человечества, ну, или, в случае восстания машин сделать первый шаг и выдернуть вилку из розетки.
Подписывайся на наш Дзен, и мы будем делиться с вами интересными новостями из жизни нейросетей.