Найти тему

Новые профессии, возникающие с развитием систем искусственного интеллекта (СИИ). ЧАСТЬ 2. «РАЗЪЯСНЯЮЩИЙ»

(другие варианты названия - переводчик, коммуникатор, интерпретатор системы искусственного интеллекта, СИИ)

Вторая категория новых рабочих мест – «Разъясняющий СИИ» - необходимое звено между технологами и лидерами бизнеса. Их задача - обеспечить ясность и понимание, которые становится все более важны с ростом сложности и непрозрачности систем ИИ.

Многим руководителям некомфортно от, фактически, «черного ящика» со недоступно сложными алгоритмами. Проблема становится еще более актуальной, когда системы ИИ рекомендуют или принимают действия, которые идут вразрез с общепринятыми.

В действительности, правительства уже рассматривают правила регулирования в области разъяснения ИИ. Например, новый Регламент Европейского Союза о защите данных, который должен вступил в силу в 2018 году, фактически создает «право на объяснение», позволяющее потребителям ставить под сомнение и оспаривать любое решение, принятое исключительно на алгоритмической основе.

Компаниям, которые внедряют передовые системы искусственного интеллекта, потребуются сотрудники, которые способные объяснить внутреннюю работу и результаты сложных алгоритмов специалистам, не имеющим должных технических навыков.

Например, аналитики могут нести ответственность за то, чтобы любой алгоритм отвечал за свои результаты. Когда система совершает ошибку или, когда ее решения приводят к непреднамеренным негативным последствиям, аналитик должен провести «вскрытие» события, чтобы понять и исправить причины такого поведения.

Определенные типы алгоритмов, такие как деревья решений, относительно просты для объяснения. Другие, как боты машинного обучения, являются более сложными. Тем не менее, «разъясняющий» специалист должен иметь надлежащую подготовку и навыки проведения подробного разбора и разъяснения результатов.

-2

Здесь могут быть чрезвычайно полезны модели и системы, которые объясняют основную причину и достоверность машинного прогноза, при этом не зависят от конкретных алгоритмов ИИ, или даже вообще не имеют информации о их внутренней работе. Чтобы выполнить разбор любого результата, такая система вносит небольшие изменения во входные переменные и наблюдает, как они изменяют это решение. С помощью этой информации аналитик алгоритма может точно определить причины, которые привели к конкретному результату.

Так, например, если экспертная HR система определила лучшего кандидата на работу в области исследований и разработок, аналитик, использующий подобные системы, мог бы определить переменные, которые привели к такому выводу (такие как образование или глубокие знания в конкретной узкой области), так и имевшиеся аргументы против этого (например, отсутствие опыта работы в совместных командах).

Используя такие методы, «разъясняющий» аналитик может объяснить, почему кого-то наняли или выдвинули для продвижения по службе. В других ситуациях аналитик может помочь понять, почему процесс производства, основанный на искусственном интеллекте, был остановлен или почему маркетинговая кампания была нацелена только на часть потребителей.

ЧАСТЬ 1. «ТРЕНЕР»

Продолжение следует...

BrainTop Analytics, по материалам Accenture и MIT Sloan Management Review

Ставьте лайки, подписывайтесь на наш канал и ждите больше новостей!