Учeныe всe чaщe стaли примeнять искусствeнный интeллeкт для сoциaльныx экспeримeнтoв, oднaкo oтсутствиe этичeскoгo кoдeксa в этoй сфeрe чaстo привoдит к печальным последствиям. Критерии оценки таких исследований устарели, а работа с большими данными в принципе не урегулирована в большинстве стран. Корреспондент WIRED София Чен уверена, что без нового регулятора в сфере ИИ никак не обойтись.
В сентябре исследователи из Стэнфордского университета показали, как нейросеть можно научить отличать гетеросексуалов от гомосексуалов по фото. Для тренировки алгоритма ученые использовали тысячи фотографий с сайтов знакомств. Своим исследованием эксперты хотели показать, какие риски несут современные технологии. По мнению Чен, ученые создали «бомбу, чтобы предупредить людей об опасности бомб».
Инициативу стэнфордских исследователей восприняли совсем не так, как они рассчитывали. ЛГБТ-группы обрушились на них с критикой, ученым на почту стали приходить угрозы, а их разработку прозвали «ИИ-френологией». В результате Американская ассоциация психологов начала проверку исследования на предмет нарушения этики.
Этот случай доказывает необходимость создания этического регулятора в области научных исследований, считает Чен. Особенно это касается социальных наук, нормы регулирования которых устарели и стали далекими от реальности. Если ученые получают финансирование от государства и хотят провести исследование с участием людей, они должны получить одобрение от комитетов по этике, существующих во всех вузах страны. Однако комитеты придерживаются правил, установленных еще 40 лет назад. В первую очередь они направлены на защиту реальных людей, а в случае с базами данных регуляторы на многое закрывают глаза. Именно поэтому проект стэнфордских ученых по опознанию гомосексуалов по фото и получил одобрение этического комитета этого университета.
При работе с большими данными нормы регулирования до сих пор не проработаны. Из-за этого многим исследователям приходится самим устанавливать себе этические ограничения. Но и такая практика может привести к плохим последствиям.
В августе группа ученых совместно с крупными ИТ-компаниями выпустила приложение NamePrism, которое определяет этническую принадлежность по имени с точностью 80%. Данные для исследования собирали из открытых источников в интернете, поэтому получать одобрение комитетов по этике ученым не пришлось.
NamePrism создали для борьбы с дискриминацией и выявления уязвимых групп и меньшинств. Однако с тем же успехом приложение можно использовать для дискриминации.
Разработчики алгоритма постарались учесть возможные последствия и самостоятельно установили ограничения. Так, через NamePrism нельзя пропускать более 1000 имен в час. Для крупномасштабных исследований с использованием программы нужно получать разрешение от ученых, причем частным компаниям создатели программы намерены отказывать.
Эксперт по этике Джейк Меткалф из организации Data & Society считает, что регуляторы недооценивают риски социальных исследований с использованием ИИ. «Это не Скайнет и не Терминатор, так что кажется несерьезным», — говорит он.
О необходимости этического кодекса для исследований с помощью ИИ и разработок самих алгоритмов по аналогии с врачебным и юридическим кодексами эксперты говорят давно. Некоторые предлагают вводить гуманитарные предметы для специалистов по компьютерным технологиям еще на стадии обучения, а также привлекать гуманитариев к процессу разработки нейросетей.
Недавно Apple опубликовала вакансию разработчика голосового помощника Siri с навыками психолога. В объявлении компания отметила, что к Siri часто обращаются за моральной поддержкой, поэтому важно учитывать психологические особенности пользователей при разработке.