Найти тему
OVERCLOCKERS.RU

В политике использования ChatGPT изменился пункт о применении чат-бота в военных целях

Недавно в политике использования ChatGPT произошло одно любопытное изменение. В соответствующей странице, где прописаны правила использования популярного чат-бота с генеративным ИИ, видоизменился один важный пункт, содержащий информацию о применении ChatGPT в военных целях. В нем было прямо указано, что любая деятельность, связанная с высокими рисками физического вреда, куда можно включить разработку оружия или что-либо, связанное с военными действиями и т. д., была запрещена. Теперь в этом же пункте присутствует лишь одно положение о неприменении нейросети для причинения вреда себе или окружающим (производство или использование оружия, разумеется, также остается под запретом).

Об этом событии сообщили в издании The Intercept.

В OpenAI объяснили, что это позволит сделать правила использования ChatGPT более простыми для понимания, отдельно отметив, что формулировка «не причинять вред себе и окружающим» может трактоваться максимально широко.

О чем это может говорить? Эксперты сходятся во мнении, что это может быть попытка компании-разработчика наладить контакты с Пентагоном и американской разведкой. «Вероятно, такая политика использования ChatGPT исключает ассоциации с военной отраслью и боевыми операциями, уделяя особое внимание оружию», — предположила член Международного комитета по контролю над роботизированным вооружением Люси Сучман.

Однако специалисты утверждают, что даже наличие всех вышеописанных запретов, практически никак не скажется на деятельности армии, то есть, задачи, связанные с проведением боевых действий и насилием, все равно будут выполняться.