Добавить в корзинуПозвонить
Найти в Дзене
Евгений Шельмин

Как лишиться прав благодаря нейросетям

Уже посвятил ряд публикаций тому, как нам нужна и не нужна нейронка в юриспруденции. Писал о том, что вопрос ИИ в судебной системе это не такое уж крутое решение потому что оно будет работать в ту сторону в которую его настроят! А в какую настроят??? В чью пользу и в чьих интересах?
Дело в том, что ИИ на сегодняшний день это 1% готовности. Ну максимум 2%. То есть позволить ИИ написать статью о природе и погоде - да. Но доверить вопросы медицины или юридическую тематику - это катастрофа на выходе. Вы думаете, что я шучу? Знаете сколько людей пострадало от тупости ИИ? От идиотских советов и решений!!! В США запрещены темы медицины и юриспруденции. Почему? Потому что ошибки ведут к необратимым последствиям там и там А у нас такого нет. У нас никто не побежит подавать в суд, например, на Гига Чат. Поэтому открываем, задаем вопрос и получаем бред Вот и все. Это февраля 2026 года! Не думаю то сильно что то изменится 8 марта или апреля. Почему? Потому что это не искусственный интеллект!!! Э

Уже посвятил ряд публикаций тому, как нам нужна и не нужна нейронка в юриспруденции. Писал о том, что вопрос ИИ в судебной системе это не такое уж крутое решение потому что оно будет работать в ту сторону в которую его настроят! А в какую настроят??? В чью пользу и в чьих интересах?
Дело в том, что ИИ на сегодняшний день это 1% готовности. Ну максимум 2%. То есть позволить ИИ написать статью о природе и погоде - да. Но доверить вопросы медицины или юридическую тематику - это катастрофа на выходе.

Вы думаете, что я шучу?

Знаете сколько людей пострадало от тупости ИИ? От идиотских советов и решений!!! В США запрещены темы медицины и юриспруденции. Почему? Потому что ошибки ведут к необратимым последствиям там и там

А у нас такого нет. У нас никто не побежит подавать в суд, например, на Гига Чат. Поэтому открываем, задаем вопрос и получаем бред

Вот и все. Это февраля 2026 года! Не думаю то сильно что то изменится 8 марта или апреля.

Почему? Потому что это не искусственный интеллект!!! Это система которая просто собирает и группирует данные по сети. Все! И вот получив очередной идиотский ответ человек получает идиотское решение в итоге.

Помним, что ГигаЧат это от Сбера. Чего там можно ждать??? Ну чего, объясните мне??? Они даже клиентов по проведенной ими же операции не могут идентифицировать, а потом при переводе самому себе из одного банка в другой пишут, что операция подозрительная.

Вчера с коллегами общался на тему того что люди настолько тупы, что пользуются заказными отзывами - ладно. Но пользоваться ИИ это верх тупости!

-2

Не только у нее, но и у нас уже есть пул клиентов, которые на ровном месте теряли права, деньги и все благодаря и при помощи этого так называемого ИИ... Только сейчас в работе минимум 10 дел где клиенты пошли в суд с позицией от нейросетей. Вопрос даже не в том, что над ними смеялись, нет, понятно что суд видит где позицию готовил юрист, а где человек собрал мусор по сети. Вопрос в том, что прав люди лишись по тем делам где были прекрасные шансы и возможности.

Расскажите о своих историях неудачного использования ИИ. Будет интересно.

Напоминаю, что наш проверенны и полезный чат без всяких ИИ находится в телеграм. Группа: ОСТАТЬСЯ С ПРАВАМИ . Ищите в поиске или воспользуйтесь безопасным QR

-3