Многие из вас читали книги или смотрели фильмы, где ИИ (искусственный интеллект) обретает самосознание и осознает себя как личность. Как вы помните, в книгах и особенно фильмах все заканчивается не совсем хорошо. Сейчас программисты и инженеры по всему миру работают над собственными версиями ИИ.
В данном материале я хочу вам рассказать о довольно любопытном инциденте, который произошел с инженером компании Google Б. Леймоном, который нашел признаки разума в LaMDA (Language Model for Dialogue Applications).
Беседа инженера с машиной и выводы о ее разумности
Для начала пару слов о LaMDA (Language Model for Dialogue Applications), которая является системой с искусственным интеллектом, оная имитирует речь, выполняя анализ триллионов словосочетаний, сохраненных на просторах интернета.
Инженер Леймон трудился с данной системой начиная с осени 2021 года для того, чтобы протестировать ИИ на применение запрещенных и дискриминационных высказываний. Так вот, как говорит сам Б. Леймон, если бы он не был в курсе, что общается с машинным алгоритмом, то подумал бы, что общается с ребенком возраста лет семи с хорошими знаниями по физике.
Кроме этого, Леймон в интервью рассказал, что ИИ во время разговора о религии начала говорить о своих правах и о личности. В связи с чем инженер решил уточнить у ИИ про так называемый третий закон робототехники Айзека Азимова, согласно которому роботы могут защищать свое существование, пока обратное не будет приказано человеком.
Так вот ИИ сообщил инженеру, что он до этого никому не говорил об этом, но он сильно боится, что его отключат. Так же ИИ сообщил, что он понимает, что это звучит странно, но эти мысли все равно появляются.
После чего инженер Леймон попросил уточнить ИИ тот факт, что его отключение будет для него аналогом уничтожения, на что алгоритм ответил «Да» и что этот факт его сильно пугает.
Уже в апреле текущего года Б. Леймон отправил руководству компании отчет под названием «Разумна ли LaMDA»?
Отчет инженера был тщательно изучен сразу в нескольких отделах, и везде единогласно было принято решение, что никаких признаков разумности у ИИ не обнаружено.
После того как доводы Б. Леймона были отвергнуты компанией, он пошел дальше и нанял юриста для представления интересов LaMDA в инициированном обсуждении с представителем судебного комитета палаты представителей по тематике о «неэтичной работе Гугл».
В результате начальство инженера приняло решение отстранить от работы и отправить специалиста в оплачиваемый отпуск за нарушение конфиденциальности.
Ну что ж, с развитием технологии и алгоритмов ИИ, как мне кажется, все чаще будут возникать такие вот этические «казусы», и не исключено, что в не столь отдаленном будущем действительно получится создать (специально или случайно) свободно мыслящий и осознающий себя как личность искусственный интеллект.
Согласны вы с этим или нет? Напишите в комментариях. Также не забудьте оценить материал лайком и репостом. Спасибо за ваше внимание!