Оно изобилует дилетантизмом в «этике», предвзятостью обвинения, антропоморфизмом и активизмом.
Автор Дональд Кларк
Я управляю ИИ компанией, инвестировал в ИИ компании, обучал применению ИИ в своей области, провожу доклады и подкасты на эту тему и написал книгу по этой теме. Тем не менее, большинство вопросов, которые я задаю об ИИ и данных, люди считают «этическими» проблемами. Проблема в том, что в большинстве случаев это не так.
Актуальная этика
Те, кто работает в этой области, мало придерживаются реальной этики. Вопросы о том, какая моральная философия выносится на стол, встречают пустыми взглядами. Этика была серьезным философским предметом еще со времен греков. От сокрактических диалогов Платона о природе «добра» и этики Аристотеля до тормозов Юма и Канта в применении разума в этической сфере - предмет имеет долгую родословную. Но как можно определить разницу между Золотым правилом и категорическим императивом? Затем перейдем к утилитаризму. Несмотря на все разговоры о счастье и благополучии, немногие понимают, что эти дебаты интенсивно освещались Бентам, Миллем и многими другими. Этика - предмет глубокий и важный, но многие не имеют большого интереса или опыта в этом предмете, в том самом предмете, в котором они называют себя «экспертами».
Проблемы дизайна
Многие так называемые этические проблемы - это просто проблемы дизайна. Стивен Пинкер и другие определили психологию, лежащую в основе смешения дизайна и этики. Многие проблемы - это просто сбои в разработке решений искусственного интеллекта. Поскольку ИИ использует данные для обучения, вы должны буквально «тренировать» модели с данными, выбранными или более общими, он совершает ошибки, как ребенок, говорящий во множественном числе «sheeps» вместо слова «sheep». Алгоритм вполне может спутать x с Y, но он не понимает этого. Что еще более важно, устранение ошибок или известных проблем, таких как переоснащение, хорошо известно, и огромное количество усилий уходит на попытки уменьшить количество ошибок. Вот почему мы видим, что ИИ-решения улучшаются, иногда значительно со временем. Мое распознавание голоса Alexa сначала боролось с моим шотландским акцентом, теперь это не так. Мы не должны путать этику с дизайном. В более широком масштабе именно поэтому многие, такие как Пинкер, считают, что ИИ как экзистенциальная угроза нашему виду заблуждается. Мы просто проектируем, чтобы этого не было. Шансы на то, что он сделает это самостоятельно, близки к нулю, поскольку есть и будут широкие возможности остановить это. Давайте сначала определим эти проблемы дизайна, прежде чем мы углубимся в этические проблемы.
Антропоморфизм
В этой области широко распространен антропоморфизм, интерпретация человеческих качеств в нечеловеческих существах. Самая распространенная ошибка - это ложное распределение обязанностей, которое мы видим в часто глупых дискуссиях о роботах. По правде говоря, весь ИИ - это компетентность без понимания. Он может прекрасно работать и превзойти вас в шашках, шахматах, ГО, покере и многих компьютерных играх, даже превзойдя вас в выявлении опухолей при сканировании и некоторых уровнях принятия решений. Он автоматизирует большую часть того, что мы делали раньше, но это не значит, что он как мы или даже такие, как мы. Вносить этические качества в программное обеспечение не главное. Насс и Ривз исследовали этот антропоморфизм несколько десятилетий назад. Компьютеры, в частности, похоже, вытягивают этику из людей.
Предвзятость обвинения
Многие обвинения в предвзятости ИИ вызваны негативностью и предвзятостью обвинителей. Они настолько заинтересованы в том, чтобы обвинять вещи, часто потому, что этого ожидает их исследовательский грант или организация, что они ищут этические проблемы не в том месте, в технологиях или группе идентичности, которые им не нравятся, вместо того, чтобы искать решения этой проблемы, первый порт захода - это неправильно распределенная вина. Тогда есть предвзятость к негативу. Искусственный интеллект - это технология, она новая, поэтому с ней должно быть проблематично. В общем, есть такая халтура, как «Оружие разрушения математики» и бесчисленное количество «бестселлеров», пустых, как тюремная каша, но привлекающих внимание ленивого читателя. Негатив продает.
Активизм
Вместо применения «этики», которая представляет собой изучение моральных принципов, того, что хорошо и что плохо, искусственный интеллект и этика, кажется, незаметно отбросили моральную и хорошую сторону. Он циклопичен в своем сосредоточении на плохом. Это не этика, это активизм. У людей есть возражения, часто они сосредоточены на политике идентичности или политических позициях вокруг «капитализма», и они бросаются на технологии, как хищники за добычей. Это, безусловно, наихудшая форма несбалансированного, субъективного политиканства. Тем не менее, это обычное явление в одном месте, которое должно гордиться своей объективностью, - в наших университетах.
Оставьте это экспертам
Никто не отрицает, что ИИ и данные связаны с этическими проблемами. Все технологии имеют этическое значение. Машины убивают 1,5 миллиона человек в год ужасными и искалечивающими смертельными случаями, гораздо больше людей получают ранения, что эквивалентно потере людей в мировой войне каждый год. Тем не менее, мы не уделяем этому большого внимания как глобальной моральной заботе. Но дезинфицирующее средство для рук плохо откалибровано, мы кричим о расизме. Фактически, ЕС, IEE и другие уделяют много внимания этическим проблемам, связанным с этой технологией. Нам нужно качество, а не количество, или, как говорит Рассел в своей превосходной «Человеческой совместимости», в то время как сейчас у нас есть все мужчины, женщины, дядя, тетя и их собака. Это очень технические, этические, юридические и практические вопросы. Вам нужен междисциплинарный подход, а не замаскированный активизм.
У нас есть модель в сфере здравоохранения. Фармацевтика строго регулируется. Вы должны быть в состоянии доказать эффективность и безопасность. К тому, что вы можете требовать для своего продукта, применяются строгие правила. Это честно. Обратите внимание, что многие лекарства доказали свою эффективность и безопасность, даже не зная точно, как они действуют. Основное внимание уделяется результатам, а не полной прозрачности. Достаточно применить это только к случаям, когда ИИ может причинить вред. Многие из них довольно безобидны и не нуждаются ни в каком регулировании.
Заключение
Проблем здесь много. Во-первых, это может помешать совершению хороших вещей. Атмосфера в некоторых областях науки настолько экстремальна, что тормозит хорошие исследования и результаты в области здравоохранения и многих других областях человеческой деятельности. Во-вторых, это отвлекает от фактического поиска решений. Так много усилий вкладывается в диагностику иногда воображаемых болезней, что мало что делается для поиска лекарств. В-третьих, большая часть этого - пустая трата денег с огромным количеством дублирования, мелкой работой и результатами, которые все еще становятся мертворожденными из-за прессы. Многое - пустая трата времени. В-четвертых, существует тенденция к выплескиванию младенцев с водой в ванну, даже самой ванны. Просто имейте в виду, что ИИ не так хорош, как мы думаем, и не так плох, как мы боимся.