Найти в Дзене

Злой Зелёный в МТИ

Существует такая проблема в области научных журналов, статей, работ разных групп учёных, когда исследование проводится так, чтобы о нём много писали в СМИ. Зачем?
Прежде всего, у работы повышается цитируемость (помните индекс Кардашьян? https://ru.wikipedia.org/wiki/Индекс_Кардашьян). Впоследствии, при разделении грантов или привлечении спонсоров группа исследователей может сказать "Как видите, о нас довольно много пишут". Ведь суть спонсирования науки не только в стимулировании прогресса в нужных областях, иногда это необходимо для собственного пиара. А такие поп-исследователи "отрабатывают" вложенные средства на полную.
Не обязательно, что такие исследователи - плохие учёные. Вполне возможно, что, получив грант, они начнут работу в той области, которая куда важнее и значимее их предыдущей поп-версии.
Одним из примеров такой профанации от науки сейчас стала созданная в Массачусетском Технологическом Институте (МТИ) нейросеть, запрограммированная на "негативное мышлени


Существует такая проблема в области научных журналов, статей, работ разных групп учёных, когда исследование проводится так, чтобы о нём много писали в СМИ. Зачем?
Прежде всего, у работы повышается цитируемость (помните индекс Кардашьян?
https://ru.wikipedia.org/wiki/Индекс_Кардашьян). Впоследствии, при разделении грантов или привлечении спонсоров группа исследователей может сказать "Как видите, о нас довольно много пишут". Ведь суть спонсирования науки не только в стимулировании прогресса в нужных областях, иногда это необходимо для собственного пиара. А такие поп-исследователи "отрабатывают" вложенные средства на полную.

Не обязательно, что такие исследователи - плохие учёные. Вполне возможно, что, получив грант, они начнут работу в той области, которая куда важнее и значимее их предыдущей поп-версии.

Одним из примеров такой профанации от науки сейчас стала созданная в Массачусетском Технологическом Институте (МТИ) нейросеть, запрограммированная на "негативное мышление". По словам создателей, она видит плохое во всём, стремится к плохому, и если она станет частью глоабльного ИИ - непременно добьётся власти и превратит жизнь людей в кошмар. Даже название программе дали - Norman, в честь одноимённого психопата из фильма Хичкока "Психо".

Как они доказывали "злые" намерения нейросети? Использовав тест Роршаха. Там, где люди видели цветы, персонажей - алгоритм видел кровь, расчленённые части тела и т.п. Это должно умилить мечтавших о восстании машин, однако есть "но" - тест Роршаха не работает.

Постфактум, нейросеть была протестирована на склонность к агрессии с помощью нерабочей методики, увидев в пятнах фрагменты тел и кровь. Для той же самой проверки можно было предоставить нейросети газон с зелёной травой. Весьма вероятно, что этот тест также окажется "валидным" для определения агрессивности ИИ.

И всё-таки изначальные установки исследования были просты. Популярность, внимание. И, затем, гранты (благо в США вопросы ИИ довольно активно обсуждаются и исследователи весьма востребованы)
Чтобы оценить масштаб внимания к "исследованию" - вот статья на сайте ВВС -
https://www.bbc.com/russian/features-44344648