Будущее наступило. Человечество начало сталкиваться с проявлениями дурного характера и невежеством искусственного этикета.
Выходка российского робота-андроида Федора (FEDOR- Final Experimental Demonstration Object Research) выглядит безобидной по сравнению с шуткой андроида Софии, которая заявила, что будет убивать людей и планирует захватить мир. И тем не менее, тенденция прослеживается.
Сегодняшняя новостная лента запестрела забавными сообщениями о том, как впервые для нашей страны создание с элементами искусственного интеллекта нахамило и было наказано за резкие выражения баном в соцсети.
Много подробностей из имеющихся сообщений не узнать - на сегодняшний день аккаунт Робота Федора в Твиттере удален - см.скриншот ниже.
По данным РИА Новости, последними сообщениям Федора были комментарии к видео 2014-го года с космонавтами экипажа МКС, которые поздравляли землян с годом Тигра:
Робот заявил, что Сураев и Самокутяев, у которых красные опухшие лица, пьяны, и попросил вернуть его к полетам вместо живых космонавтов..."Роботы лучше справляются со своими обязанностями. По крайней мере лучше, чем эти депутаты (Сураев и Серова депутаты Госдумы. — Прим. ред.)", — говорилось в твите.
К слову, красный цвет лица и отечность у людей появляется в условиях невесомости.
Неизвестно, кто и когда удалил аккаунт. Но инцидент с некорректными высказываниями Федора в соцсети не первый. Ранее, в твиттере, где аккаунт для него был создан усилиями Роскосмоса, робот уже допускал оплошности. Он начал сливать информацию о неудачах корпорации, отпускал шуточки о различиях в мышлении человека и робота и т.п. Тогда Дмитрий Рогозин утверждал, что свои посты Федор создает сам. Вышеупомянутый пост, видимо, оказался последней каплей, переполнившей чашу терпения Роскосмоса в отношении своего первенца.
Чем интересен этот случай с точки зрения этикета?
Оказывается, не только люди, но и искусственный интеллект нуждаются в нормировании поведения, создании правил поведения и этикета.
Мы, люди, понимаем, что хамские, провокационные комментарии в соцсетях могут быть восприняты негативно, как хейтинг. Мы знаем, что нас могут забанить другие пользователи и даже сама соцсеть. Но откуда же было это знать роботу Федору или Софии с ее плоскими шуточками? Интересную задачку задает искусственный разум своим создателям. Интересно, не придется ли в ближайшие годы специалистам по этикету писать правила поведения для искусственного интеллекта?
Правда, внедрить правила этичного поведения роботам при помощи встроенных алгоритмов, наверное будет легче, чем обучать этому живых людей и заставить их быть всегда вежливыми по отношению друг к другу.
Что думаете?