Найти в Дзене

ИИ УЧЁНЫХ СУДЯТ?

Второй раз за неделю про ИИ, но пост не о нем, а о современной "этике". Пару дней назад, так сказать, подали в суд на ИИ-учёных. Ну, не буквально подали в суд, конечно, но проблема — такая, что даже комментаторы из Университета Британской Колумбии уже задумались. ИИ научился проводить эксперименты и даже успешно интерпретировать результаты. Всё звучит круто, если не считать одного маленького но: его выводы — как у начинающего аспиранта. Знаешь, вот того аспиранта, который старается, но либо излишне торопится, либо просто неправильно понял задачу. Ну и вот, с этим и надо работать. Короче, ИИ вроде бы и классно справляется, но где-то рядом зреют потенциальные проблемы. Кто будет получать признание за научные открытия, сделанные ИИ? Это же не кто-то конкретный, а умный алгоритм. А кто будет нести ответственность, если ИИ вдруг ошибётся, зафейлит эксперимент или... вот сюрприз — сплагиатит? Ведь ИИ может вообще не заметить, что он повторил чью-то работу. Ну и теперь вопрос — вот, до

Второй раз за неделю про ИИ, но пост не о нем, а о современной "этике".

Пару дней назад, так сказать, подали в суд на ИИ-учёных. Ну, не буквально подали в суд, конечно, но проблема — такая, что даже комментаторы из Университета Британской Колумбии уже задумались.

ИИ научился проводить эксперименты и даже успешно интерпретировать результаты. Всё звучит круто, если не считать одного маленького но: его выводы — как у начинающего аспиранта. Знаешь, вот того аспиранта, который старается, но либо излишне торопится, либо просто неправильно понял задачу. Ну и вот, с этим и надо работать.

Короче, ИИ вроде бы и классно справляется, но где-то рядом зреют потенциальные проблемы. Кто будет получать признание за научные открытия, сделанные ИИ? Это же не кто-то конкретный, а умный алгоритм. А кто будет нести ответственность, если ИИ вдруг ошибётся, зафейлит эксперимент или... вот сюрприз — сплагиатит? Ведь ИИ может вообще не заметить, что он повторил чью-то работу.

Ну и теперь вопрос — вот, допустим, ИИ всё больше участвует в науке. Это круто, но может ли он когда-нибудь заменять людей настолько, чтобы научные статьи, эксперименты и открытия делались исключительно машинами? Тут как раз встаёт тот самый этический вопрос, который, кажется, только усложняет весь процесс.

Научный контент, экспериментальные работы — всё это делается людьми. И риск всё выше и выше. Кто-то всегда может быть недоволен, что его идея украдена или работа была неверно интерпретирована. И ведь никто не застрахован, что это перерастёт в юридический процесс, где ИИ-то и судить не получится — только людей, которые им управляют.

ИИ, конечно, никогда не скажет тебе, что "лучше нарисовать на доске большой член", как сказал бы кто-то, кто контролирует контент. Он не будет домогаться, не будет нарушать границы. Но, увы, человеческие эмоции, этика, мораль и интеллект — это то, что так трудно воссоздать. А потому и риск создания контента, тем более научного, с каждым годом становится всё более опасным и сложным.

И да, мы снова стоим на пороге эпохи, где доверять нужно, наверное, не столько машине, сколько тем, кто ею управляет.