И это важный момент для всех нас. Вы купили хорошую мясорубку, а потом производитель узнал, что вы собираетесь перемалывать в ней что-то совсем другое - не то, для чего она создавалась. И производитель говорит: нет, так нельзя. Примерно это сейчас происходит между американским военным ведомством и одной из ведущих ИИ-компаний мира. Только ставки, конечно, несравнимо выше. Главный технолог Пентагона Эмиль Майкл публично потребовал от компании Anthropic снять все этические ограничения с их модели Claude - мощного ИИ-помощника, которого многие используют для работы и учебы. Конкретно речь идет о двух вещах: Пентагон хочет использовать Claude для разработки автономных систем оружия, то есть таких, которые принимают решения без участия человека, и для массовой слежки за гражданами. Anthropic на это отвечает твердым отказом. Майкл в ответ призвал компанию "перейти Рубикон" - то есть сделать необратимый выбор в пользу военного применения без каких-либо условий. Его логика проста: если продае
Компания Anthropic отказывается убирать этические ограничения с ИИ-модели Claude, несмотря на давление со стороны Пентагона
25 февраля25 фев
1
3 мин