НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И (ИЛИ) РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+
Языковые модели с меньшими ограничениями по сравнению с лидерами рынка облегчают создание любого вида противоправного контента.
Основатель американской неонацистской группировки «The Base» Ринальдо Наццаро призвал своих сторонников использовать «нецензурированные» большие языковые модели для получения информации. Об этом пишет онлайн-издание 404 Media. Непонятно, что за информация имелась в виду, однако известно, что подобные модели могут предоставлять инструкции по совершению убийств, самоубийств, этнических чисток и изготовлению наркотиков.
Рекомендованная Наццаро конкретная модель — Mixtral 8 — в отличие от OpenAI (например) действительно не отказывалась от обсуждения тем, связанных с насилием, порнографией или расизмом (теперь она недоступна). Ситуация вызывает опасения о том, что некоторые платформы и модели искусственного интеллекта (ИИ) могут способствовать распространению опасного контента, отмечает SecurityLab.
Эрик Хартфорд, модифицировавший первоначальную версию Mixtral 8, утверждает, что его целевая аудитория — бизнес, желающий настроить искусственный интеллект в соответствии со своими ценностями, а не ограничиваться чужими. Он подчеркнул, что любая технология может быть использована во вред и что бороться с неправомерным использованием ИИ должны законодатели.
Модели искусственного интеллекта с меньшими ограничениями по сравнению с лидерами рынка облегчают создание любого вида контента, и главы экстремистских движений задумались о том, как это может быть полезно для них, заключает 404 Media.