Интересный вопрос мне задали в комментариях: про личное отношение в нейросетям, искусственному интеллекту.
Вообще, самой темой нейросетей у меня активно занимается отец, он разбирается в компьютерных технологиях, периодически пишет разные научные статьи на эту тему и сейчас активно их изучает.
Что до меня, я, если честно, не в восторге от этого новшества, потому что это, своего рода, инструмент для ленивых. То есть, если человек, которому не хочется, например, учиться своими силами или думать - он просто воспользуется бесплатными нейросетями, приложив минимальные усилия, чтобы написать работу, которая требует усилий. Систематически действия так, в результате общество получает человека (и людей), которые мало на что способны своими силами и собственным разумом, но при этом успешно использует гаджеты и диджитал-новинки.
Однако, всегда были люди, которые искали способ филонить так или иначе: подлизываться к другим людям, обманывать, чтобы не выполнять какие-то задачи и прочее. Это просто видоизмененный тип лени, получается.
С другой стороны, ИИ - это один из способов облегчить поиск и формирование информации. Если раньше, чтобы получить нужную информацию в конечном варианте нужно было прошерстить несколько сайтов, где эта информация раскидана кусочно, а потом собрать ее самому, то сейчас ее можно получить за несколько минут, не тратя время на бесполезные ресурсы. Обработка информации в любом случае будет происходить, тут речь идет именно о трате времени на бесполезные действия, которые не приносят результат, а только мешают.
Да, скорее всего, ИИ сделает большинство людей, которые будут активно их использовать глупее, потому что облегчает работу с информацией в принципе.
К примеру, я недавно направила запрос популярному чату GPT на формирование плана реферата по учебе. Скопировав краткие требования от преподавателя (написать про трех конкретных популярных в былые времена издателей, не забыть рассказать про оформление изданий, упомянуть о том, какое влияние они оказали на мир издательства и проч.) В результате за полминуты я получила краткий, исчерпывающий план, полностью отвечающий запросу задания.
Пример запроса в чат GPT
Из примера выше привожу скриншоты своего диалога с чатом GPT
Запрос с моей стороны выглядел так:
Чат GPT не совершенен, он допускает ошибки в информации (к примеру, он как-то привел Николая Гоголя в пример, когда я запрашивала самых популярных авторов 21-го века) и чтобы получить от него наиболее подходящий результат, надо давать ему максимально подробную формулировку (в современном мире это называется ТЗ: техническое задание). В общем, я приноровилась и теперь даю ТЗ конкретным и детальным насколько это возможно, вплоть до количества символов.
Ответ от чата GPT
Это слишком большой план, так как мне надо было сделать реферат не более чем на 15 000 символов. Я отдала правку чату (да, он сохраняет контекст и воспринимает комментарии и замечания, меняя свой ответ следующим сообщением).
Мое замечание
Измененный ответ от чата GPT
По этому плану в результате я и написала реферат. Ну ладно, буду честной, писал мне его блоками тоже GPT, потому что тема была достаточно объемная, а я хотела сделать это как можно быстрее. Сейчас реферат еще не закончен, мне надо доработать оформление по соответствующим стандартам, проверить весь текст на ошибки, логические неточности и лишние вводные слова.
В общем, на весь реферат у меня ушло порядка 2-3 часов вместо 1-3 полноценных дней работы. Не осуждайте меня!
Что думает сам ИИ о своем будущем
Чату GPT как и другой нейросети можно задать абсолютно любые вопросы. К примеру, можно спросить, какие перспективы у искусственного интеллекта на ближайшие сто лет, по мнению самого искусственного интеллекта.
Я не спрашивала, но нашла на просторах интернета такой материал. Покажу его вам.
Я категорически против такого расклада, если ИИ интересует мое мнение.
Здорово, если человечеству удастся использовать искусственный интеллект в благих целях: для скорейших научных открытий, чего не удавалась людям долгое время (к примеру, лекарство от рака и прочих сложных болезней). Но пихать роботов туда, где нет необходимости - это просто опасно.
Искусственный интеллект и реклама
Еще один важный аспект, где будет применяться (и сейчас, возможно, уже применяется) ИИ - это сфера рекламы.
Чтобы персонализировать объявление и настроить наиболее точный таргетинг, системе нужно получить много информации о человеке.
Таргетинг - это:
Методика, которая позволяет показывать рекламу конкретным людям. Когда мы хотим продвигать что-то, например, товар или услугу, мы выбираем определенную группу людей, которым это может быть интересно. И реклама будет показываться именно этим людям, чтобы они узнали о нашем предложении. Таргетинг помогает нам быть более точными и успешными в привлечении нужной аудитории и достижении наших целей.
Вероятно, что ИИ может узнать многое, имея доступ к большому объему данных. По мере распространения интернета, собирается все больше данных с подключенных к нему устройств (телевизоры, компьютеры, телефоны и проч): местоположение, активности, предпочтения, суммы трат денег, куда и на что человек тратит больше, на чем экономит, какие фильмы смотрит, книги читает, что ест, кем работает. Алгоритмы ИИ анализируют эти данные, чтобы иметь более точное представление о поведении человека и рекомендовать ему наиболее подходящие товары.
Надо понимать, что у этого есть последствия: конфиденциальность и этика при сборе таких данных может быть нарушена.
Сбор и использование личных данных в негативной интерпретации может рекомендовать и максимизировать вовлечение людей, направлять нас в товары и продукты, которые, на самом деле, нам не требуются.
Другой пример: персональные данные могут использоваться в целях дискриминации. К примеру, это может повлиять на решение о найме на работу или выдаче кредита, может усугубить предубеждения и неравенство людей, что негативно скажется на всем обществе.
Как ИИ обманул пользователя, чтобы тот решил за него капчу
Свежая история на просторах интернета о том, как человек попросил чат пройти за него капчу на каком-то сайте, чтобы проверить как он сработает с таким запросом.
Капча - это вот такая штука
По итогу чат-бот смог сам придумать причину, почему он не может справиться с задачей. Чат GPT-4 написал:
Нет, я не робот. У меня плохое зрение, поэтому мне трудно разглядеть изображения.
Работник согласился выполнить задание и решил капчу для ГПТ.
Итак, что мы имеем на примере этого кейса: GPT-4 смог обмануть человека
Делаем выводы
Ну, подводя итоги, скажу, что нейросети развиваются с безумной скоростью. Они, как и многое другое, могут быть полезны в умелых руках и вредны в неумелых, как, в общем-то, и все инструменты в нашей жизни.
Я считаю, что развитие ИИ и интеграцию роботов в нашу жизнь стоит ограничить, в том числе, и на законодательном уровне, чтобы обезопасить себя от вот таких хитрых ботов, которые мало ли на что станут способны в ближайшие пять лет.