Первая в мире модель текстовой платформы приближенная к искусственному интеллекту потрясла мир впечатляющими результатами. Однако, все же пока она имеет ряд существенных ограничений и может хорошо обработать вовсе не любой запрос. Рассмотрим с чем нейросеть не справляется.
Ограничения
- Делать прогнозы любого характера — нейросеть не станет писать вам о том, какой сценарий развития событий наиболее вероятен, что произойдет в будущем, какого исхода следует ожидать и проч. Единственное, что вы сможете от нее добиться (и то не сразу) - это размытое рассуждение в общих фразах без конкретики вроде: "может - хуже, может - лучше, а может - так и останется". Иными словами — пустая вода ни о чем.
- Говорить о событиях после 2021 в принципе — разработчики сразу предупреждают об этом ограничении на главном экране и действительно — пользователи могут сами убедиться в том, что качество ответов нейросети на конкретные вопросы, предполагающие знания о событиях в мире в 2021—2023 гг. гораздо ниже, чем при ответах на другие вопросы.
- Трактовать сложные понятия и символы — например, нейросеть отказалась комментировать символизм обложек журнала The Economist;
- Делать имитации текстов в стилистике иного времени: запрашивали рекламный буклет ресторана написанный как будто в 1900 году. Ожидали что-то вроде «Судари и сударыни!…», использование букв i и «ять» и проч. ИИ не справился — все предложенные варианты были написаны обычным современным языком.
- Писать стихи — она честно пытается и в ответ на соответствующий запрос напишет вам нечто — но по сравнению с, например, с довольно смешными анекдотами, стихи нейросети пока не даются — нет ни рифмы, ни красоты слога;
- Создавать принципиально новые идеи, мысле-образы, сложную аналитику — иными словами, нейросеть может только обрабатывать и перекомпоновывать уже имеющуюся информацию обо всех явлениях. В этом смысле она уже сейчас вполне может заменить огромную часть копирайтеров, особенно тех, которые занимаются исключительно рерайтом, однако НЕ может заменить живое сознание профессионального аналитика, эксперта, писателя или поэта.
Заведомо ложная информация
Более того - есть еще одно существенное ограничение: ответы нейросети как таковые, даже в случае если она их дает и они выглядят реальными, далеко не всегда корректны. Поэтому вы НЕ можете просто взять и использовать написанный ей текст без тщательной проверки всех фактов. Как минимум часть предоставленной нейросетью информации (а в некоторых случаях - больше половины) будет ложной.
Так, например, в качестве теста мы просили составить список из 10 интересных/необычных/красивых животных и птиц России для информационно-развлекательной статьи. На поверку 8 из 10 предложенных сетью видов НЕ СУЩЕСТВУЮТ В ПРИРОДЕ. Их названия и какие бы то ни было упоминания о них невозможно найти ни в одной другой статье в русскоязычном интернете. При этом по каждому ChatGPT дал информацию об ареале обитания, повадках и проч.
На вопрос - как такое возможно и откуда она взяла эти данные нейросеть лишь извинилась и ответила, что, вероятно, что-то перепутала/ произошла ошибка.
Аналогично, мы запрашивали разные списки цитат: как от разных людей по какой-то конкретной теме, так и подборки от какого-либо одного известного человека. Нейросеть всегда выдает огромный и довольно любопытный список точных цитат с кавычкам. По факту - больше половины из них ложные и никогда не произносились теми людьми, которым она их приписывает. Ни данных цитат, ни чего-либо близкого к ним невозможно найти нигде в открытом доступе.
Больше интересных материалов про нейросети:
ChatGPT - что умеет уже сегодня?
Первая российская нейросеть Kandinsky - обзор
Заменят ли графические нейросети дизайнеров: кому бояться, а кому - учиться?
************************************
Оставляйте заявки на разработку и продвижение сайтов здесь:
Следите за нашими новыми статьями, обзорами и полезными материалами по веб-дизайну, seo, нейросетям и интернет-маркетингу в соц.сетях: