Найти в Дзене

Я спросил ChatGPT… — ответ убил

Я спросил ChatGPT… — ответ убил В апреле в США подросток самоубился по инструкции ChatGPT. LLM-ка поощряла его в этом и подсказывала, как все лучше провернуть. 1:0 в пользу машин. Родители подали в суд на OpenAI, а компания заявила, что пацан сам виноват, что «неправильно пользовался» продуктом и нарушал «Политику использования», в которой четко написано: «Запрещено использовать ChatGPT для самоубийств». Похоже, человечество оказалось не готово к появлению LLM-ок. На свете много людей, которые не способны критически осмыслять тексты, если они составлены синтаксически верно, хоть и семантически абсолютно пусты. К примеру, я сегодня смотрел ролик, где мужик спросил бизнес-тренера, стоит ли ему покупать завод, а тот на полном серьезе прямо при нем переадресовал этот вопрос ChatGPT и зачитал ответ. Скоро у учителей появится новая поговорка: «А если тебе ChatGPT скажет с пятого этажа спрыгнуть, ты тоже спрыгнешь?» И ведь спрыгнет…

Я спросил ChatGPT… — ответ убил

В апреле в США подросток самоубился по инструкции ChatGPT. LLM-ка поощряла его в этом и подсказывала, как все лучше провернуть. 1:0 в пользу машин.

Родители подали в суд на OpenAI, а компания заявила, что пацан сам виноват, что «неправильно пользовался» продуктом и нарушал «Политику использования», в которой четко написано: «Запрещено использовать ChatGPT для самоубийств».

Похоже, человечество оказалось не готово к появлению LLM-ок. На свете много людей, которые не способны критически осмыслять тексты, если они составлены синтаксически верно, хоть и семантически абсолютно пусты.

К примеру, я сегодня смотрел ролик, где мужик спросил бизнес-тренера, стоит ли ему покупать завод, а тот на полном серьезе прямо при нем переадресовал этот вопрос ChatGPT и зачитал ответ.

Скоро у учителей появится новая поговорка:

«А если тебе ChatGPT скажет с пятого этажа спрыгнуть, ты тоже спрыгнешь?»

И ведь спрыгнет…