Найти тему
OVERCLOCKERS.RU

Ученые мира объединяют усилия для безопасного использования ИИ в биологии

Более ста ученых из ведущих университетов и научных организаций подписали принципы исследований, направленные на предотвращение создания биологического оружия с использованием искусственного интеллекта. Это решение стало ответом на растущие опасения относительно потенциала ИИ в исследовательской сфере.

В ходе саммита, который прошел в Университете Вашингтона в 20230 году, были сформулированы 10 вариантов в области исследований и разработки ИИ. Эти принципы не запрещают использование ИИ, а скорее призывают к его ответственному применению, исключая разработку опасных биологических вооружений. Основной акцент сделан на превентивных мерах управления рисками для предотвращения непреднамеренных катастроф на генетическом уровне.

Ученые обязуются не проводить исследования, которые могут привести к "общему вреду" или неправомерному использованию, а также заказывать услуги по синтезу ДНК только у тех поставщиков, которые имеют механизмы скрининга для выявления опасных биомолекул. Кроме того, в документе указано о необходимости оценки безопасности программного обеспечения на основе ИИ до его выпуска и участия в практиках "красной команды" для выявления потенциальных проблем в протоколах скрининга.

Среди подписавших принципы исследователей находятся представители таких учебных заведений, как Колумбийский университет, Гарвард, Йель, Массачусетский технологический институт, Стэнфорд и другие, а также университеты Канады, Великобритании, Китая, Германии, Израиля и Японии. Подписание означает личное обязательство ученых следовать указанным практикам, но также может стимулировать их коллег и учреждения к принятию аналогичных мер.

Согласно принципам, искусственный интеллект несет в себе как уникальные риски, так и огромный потенциал для биологии и человечества в целом. Инициатива подчеркивает важность регулирования на этапе синтеза ДНК и переноса разработок из виртуального мира в реальность.