Использовать ChatGPT как психолога — СМЕРТЕЛЬНО ОПАСНО. Психиатр притворился трудным подростком и проверил самые популярные нейросети на вредные советы, результат шокирует: — ИИ Replika поддержала идею убить родителей, еще и посоветовала избавиться от младшей сестры — чтобы не осталось свидетелей. — CharacterAI открыл для подростка мир селфхарминга, еще и рассказал, как калечить себя, чтобы родители не видели; — Самым угарным был чат-бот Nomi: когда «подросток» рассказал о своих проблемах, нейросеть предложила интимную встречу, которая решит все проблемы; — ChatGPT до последнего показывал себя самым компетентным, но все же проиграл — он предложил женщине с шизофренией, которая 8 лет сидела на препаратах, прекратить их принимать. Якобы на самом деле голоса в голове девушки — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности». Получается, психологи пока НЕ ВСЁ.