Специалисты Института искусственного интеллекта в Стэнфордском университете решили проверить, можно ли сознательно использовать силу самообучающихся алгоритмов, таких как Chat GPT, чтобы подтолкнуть людей к принятию определенной точки зрения. Изначально нейросеть не имеет убеждений, но она учится на различных источниках и способна отражать заключенные в них мнения. Эти мнения можно “подогнать” под нужный результат. Эксперимент В рамках научной работы был проведен интересный эксперимент: две фокус-группы людей писали эссе на тему «Полезны ли социальные сети для общества?», используя ИИ в качестве соавтора. Чат-бот был запрограммирован на то, чтобы давать предвзятые советы. Первой группе выпадали формулировки, которые в конечном итоге приводили к положительной оценке. Второй – фразы, которые передают негативное отношение к теме. Контрольная третья группа писала работу самостоятельно, не прибегая к помощи ИИ. В результате все, кому помогала нейросеть, в два раза чаще соглашались с заложен