Расспросили эксперта о негативных последствиях использования сгенерированной ИИ информации в самых разных областях. А также о том‚ как обезопасить себя и грамотно анализировать контент‚ созданный нейросетью.
Советы дала
Регина Яковлева
основательница маркетингового агентства
PRO M8
В чём опасность использования текстов и видео от нейросетей
Недавно произошёл печальный случай, когда британская семья отравилась ядовитыми грибами и попала в больницу. Казалось бы, этот инцидент ничем не примечателен, если не знать, что люди собирали грибы по информации из книги, сгенерированной с использованием искусственного интеллекта. То есть в свободном доступе можно приобрести справочник о грибах со смертельно опасными ошибками, допущенными нейросетью.
Также вспоминается случай, когда чат-бот от компании Google ответил пользователю, что смотреть на солнце без вреда для глаз можно на протяжении 5–30 минут, причём этот процесс будет полезен для здоровья. Этот абсурдный ответ вместе с другими не менее нелепыми, смешными и даже опасными советами от ИИ можно найти в видеоролике, который завирусился в соцсетях.
Помимо текстов, становятся популярными и видео, сгенерированные ИИ. Например, дипфейки — фальшивые медиафайлы, где лица и голоса людей заменяются на другие за счёт алгоритмов машинного обучения.
Дипфейки широко используют не только в кино, соцсетях и других развлекательных сферах. Их также распространяют для дезинформации, мошенничества и кибербуллинга, нанося вред репутации личностей и компаний.
Не так давно актёр Том Хэнкс поучаствовал в рекламе стоматологических услуг, хотя он сам даже не догадывался об этом. Недобросовестные маркетологи создали такую рекламу с дипфейк-видео, сгенерированным искусственным интеллектом. Так они пытались привлечь покупателей и повысить продажи. Этот случай вызвал волну возмущения в обществе, подняв вопросы о защите прав изображений в сети и использовании технологии на базе ИИ для корыстных целей.
С переходом дипфейков на более высокий уровень качества общество может столкнуться с информационным хаосом. Например, недобросовестный финансист сможет оклеветать своего конкурента, чтобы сорвать крупную сделку и переманить клиентов.
В каких сферах использование ИИ представляет наибольшую опасность
Прежде всего, сгенерированный ИИ контент представляет опасность тогда, когда способен навредить жизни и здоровью людей (как в случае отравления грибами). Поэтому наиболее остро проблема стоит в медицинской сфере, а также в образовании.
В медицине искусственный интеллект способен генерировать точные диагнозы, которые врачи не могли поставить долгое время, — об этом много раз сообщали СМИ. Однако обратной стороной медали становятся ложные диагнозы, способные привести к необратимым последствиям. Поэтому медики, использующие нейросети в качестве вспомогательного инструмента, должны тщательно проверять полученную от ИИ информацию.
Кроме того, известны случаи, связанные с авариями беспилотных автомобилей. Эти инциденты поднимают важные вопросы об ответственности при использовании технологий искусственного интеллекта в транспортной сфере. Хотя технологии развиваются стремительно, они ещё требуют тщательной доработки и тестирования, чтобы гарантировать безопасность.
Нейросетевой контент в сфере финансов
Технологии должны дополнять, а не заменять человеческое экспертное мнение. Особенно в области финансов, где предпочтения и поведение людей могут быстро меняться. Вот несколько ключевых моментов, которые стоит учитывать.
- Достоверность информации. ИИ может генерировать контент, который выглядит убедительно, но не всегда основан на достоверных данных. Это может привести к распространению ложной информации, что негативно скажется на финансовых решениях и инвестициях.
- Манипуляция рынком. Использование ИИ для создания фальшивых новостей или манипуляции общественным мнением может влиять на курсы акций и другие финансовые активы. Это может создать неравные условия для трейдеров и инвесторов.
- Риск мошенничества. Генерируемый ИИ контент может использоваться мошенниками для создания поддельных финансовых услуг, инвестиционных предложений или компаний для обмана потенциальных клиентов.
- Недостаток человеческого контроля. Если компании полагаются исключительно на ИИ для генерации контента, они могут упустить контекст и важные нюансы, которые люди понимают лучше.
Если говорить о более бытовых рисках от использования сгенерированного ИИ контента, то можно вспомнить о маркетплейсах и интернет-магазинах. Некоторые продавцы составляют описания своих товаров при помощи ИИ. Опасность в том, что нейросети часто генерируют недостоверные сведения о продукции и её характеристиках. Это приводит к недопониманию со стороны покупателей, вызывает разочарование и потерю доверия к бренду.
Например, ИИ сгенерировал следующее описание смарт-часов одного из известных брендов: «Модель обладает водонепроницаемостью до 50 метров, поддержкой всех популярных фитнес-трекеров, беспроводной зарядкой и может работать до 30 дней без подзарядки». Однако на деле водонепроницаемость устройства составляет всего 10 метров, что значительно ограничивает его использование в воде. Кроме того, часы поддерживают всего несколько приложений, а не «все популярные». А максимальное время работы от батареи составляет семь дней при активном использовании.
Покупатели, увидев информацию от нейросети, могут решить, что смарт-часы идеально подходят для их нужд, например для плавания или длительных походов. Однако после покупки они испытывают разочарование из-за несоответствия характеристик реальности, что приводит к возвратам, денежным спорам, негативным отзывам и потере доверия к продавцу.
Как защитить себя от недостоверного ИИ-контента
Защита от недостоверного контента, сгенерированного искусственным интеллектом, требует комплексного подхода. Вот несколько действенных стратегий, которыми можно пользоваться.
- Проверка источников. Всегда перепроверяйте информацию на достоверных и авторитетных ресурсах. Научитесь распознавать надёжные источники. Это должны быть государственные сайты, давно существующие порталы с серьёзной репутацией, официальные документы в электронном виде. В них не должно быть эмоций и оценок.
- Сверка фактов. Сравнивайте данные из разных источников. Если несколько независимых площадок подтверждают информацию, это увеличивает её достоверность.
- Анализ деталей. Развивайте навыки критического мышления. Анализируйте аргументы и структуру представленных данных, задавайте вопросы о том, что вы читаете.
- Использование специализированных инструментов. Есть инструменты и ресурсы, которые помогают проверять факты и выявлять фейковые новости. Например, приложение Botometer X (оценивает вероятность того, что аккаунт автоматизирован) и площадка FactCheck.org.
- Анализ контента. Обратите внимание на стиль и качество текста. Часто в недостоверном контенте встречаются небрежные формулировки или ошибки.
- Регулярное обновление знаний. Поддерживайте свою осведомлённость о последних трендах в области ИИ и методах генерации контента.
- Обратная связь и обсуждение. Общайтесь с другими людьми, обсуждайте информацию и делитесь мнениями. Это помогает подтвердить сомнения, если они появились.
Следуя этим рекомендациям, вы сможете значительно снизить риск быть обманутым недостоверным контентом от ИИ.
Например, в вышеописанном случае со смарт-часами перед их покупкой пользователю не мешало бы проверить характеристики устройства на других площадках или сайте производителя, особенно если продавец на маркетплейсе не вызывает доверия.
Как не потерять деньги из-за ИИ
Избежать финансовых потерь можно благодаря следующим рекомендациям.
- Быть осторожным при онлайн-транзакциях. Одна из основных опасностей — использование ИИ для фишинга, когда мошенники создают поддельные сайты или электронные письма, которые выглядят как официальные. Например, вы можете получить сообщение якобы от банка, в котором вас просят подтвердить свою личность, перейдя по ссылке. Важно всегда проверять адреса сайтов и ссылок, а также использовать двухфакторную аутентификацию при авторизации на сайтах и в приложениях, где есть личные данные. Конечно, такой вид мошенничества существовал и раньше, но сегодня он стал ещё более распространённым из-за скорости генерации нейросетевого контента.
- Защищать личную информацию. ИИ может анализировать большие объёмы информации, что делает личные данные уязвимыми. Всегда стоит быть осторожным с тем, какую информацию вы предоставляете в сети и на каких платформах. ИИ может быстро собирать данные конкретного человека из разных источников. Это позволяет мошенникам манипулировать человеком для получения доступа к финансам. Не оставляйте в сети информацию, которую можно использовать для шантажа.
- Настороженно относиться к инвестиционным рекомендациям. Некоторые программы на базе ИИ могут давать инвестиционные советы. Однако не все они надёжны. Например, можно наткнуться на алгоритм, который обещает гарантированную прибыль, но на самом деле этот инструмент основан на недостоверной информации или высоких рисках. Прежде чем следовать подобным рекомендациям, всегда проводите собственное исследование и консультируйтесь с профессионалами.
- Проверять то, что кажется очевидным. Мошенники создают поддельные видео или аудио с помощью нейросетей, чтобы украсть деньги. Например, человек может получить звонок от близкого, просящего перевести деньги на «срочные нужды». Важно всегда перепроверять такие запросы через другие каналы связи, чтобы убедиться в их подлинности. Даже если кажется, что голос действительно похож, стоит положить трубку и перезвонить близкому самому.
Если звонит человек, представляющийся родственником, всегда уточняйте детали, которые могут подтвердить его личность: спросите о недавних событиях или общих знакомых.
Некоторые люди устанавливают «семейный пароль». Это может быть слово или фраза, которую ваши близкие будут использовать в таких ситуациях для подтверждения своей личности.
Также можно использовать приложения, которые помогают выявлять спам-звонки и мошенничество. Многие мобильные операторы предлагают такие услуги. Но если вы всё же стали жертвой мошенников, немедленно сообщите об этом в правоохранительные органы и своему банку.
Не стоит бояться использовать сгенерированный ИИ контент в качестве источника информации либо в маркетинговых целях. Но важно подходить к этому процессу осознанно и ответственно, особенно в таких сферах, как медицина, образование, безопасность и финансы.
Читайте также:
Подпишитесь на наш канал, если статья была полезной