Закрыть [x]

Перейти на мобильную версию

5 шагов по исправлению недостатков ИИ

07.10.2019

Искусственный интеллект может использоваться в благих целях, например, для удаления запрещенного контента из интернета или более быстрого обнаружения наркотиков. Но в то же время у этой технологии есть и негативные проявления, например, некорректные выводы о том, кому дать кредит, кого взять на работу или лишить ее и даже о том, кого отправить в тюрьму.

Издание Fast Company опросило политиков, бизнес-экспертов, ученых и активистов и сформулировало пять шагов по превращению ИИ в однозначно позитивное явление.

1. Создать контролирующее ведомство

Алгоритмы воздействуют на наш мир мощными, но не всегда очевидными способами. Роботизированные системы еще не заменяют солдат, как в «Терминаторе», но вместо этого они медленно вытесняют бухгалтеров, чиновников, юристов и судей, которые принимают решения о выплатах и наказаниях. Несмотря на развитие, ИИ продолжает использовать детскую логику, основанную на предвзятых или неполных данных.

Тому есть множество подтверждений таких, как расследование ProPublica 2016 года, которое показало, что программное обеспечение для правоохранительных органов США переоценивало вероятность рецидива у чернокожих обвиняемых, что приводило к более суровым приговорам. В августе этого года отделение ACLU (American Civil Liberties Union, Американский союз защиты гражданских свобод) в Северной Калифорнии протестировало Rekognition, систему распознавания лиц от Amazon, на фотографиях членов законодательного собрания Калифорнии. Алгоритм ошибочно обнаружил 26 из 120 человек в полицейской базе из 25 тысяч снимков. Аналогичная ситуация произошла в прошлом году, когда ACLU проводил эксперимент с фотографиями законодателей федерального уровня.

Системы, которые принимают решения такой степени важности, представляют наибольшую угрозу для общества и требуют тщательнейшего контроля.

«Я считаю, что у нас должно быть ведомство наподобие FDA (Food and Drug Administration, Управление по санитарному надзору за качеством пищевых продуктов и медикаментов), которое будет тестировать программы до их запуска в эксплуатацию», – говорит социолог из Гарварда Мутале Нконде.

Нконде воплощает эту идею в жизнь, помогая в создании закона об ответственности алгоритмов. Если его одобрят, то использующие ИИ компании будут обязаны доказывать, что их системы «точны, справедливы, непредвзяты, конфиденциальны и безопасны».

2. Доступно рассказать о работе ИИ

Получить простое объяснение работы ИИ – не просто прихоть политиков, которые не разбираются в этой технологии, считает специалист по данным и правозащитник Джек Пулсон.

«На самом деле вам не нужны глубокие познания в этой области, чтобы получить представление о многих из ее проблем», – убежден он.

По мнению Пулсона, для понимания работы ИИ обществу необходим доступ ко всей системе – необработанным данным для машинного обучения, алгоритмам, которые их анализируют, и появляющимся моделям принятия решений. «Я думаю, что заявления о неспособности обычных людей разобраться в этом, в корне неверны», – говорит эксперт. Он отмечает, что тестирование Rekognition от Amazon, проведенное ACLU, хорошо демонстрирует возможность неспециалистов оценить работу ИИ.

Показать себя надежным поставщиком ИИ-систем с помощью разъяснений их работы пытается IBM. В августе этого года компания выпустила программное обеспечение с открытым исходным кодом, которое позволяет понять, как алгоритмы делают выбор. А годом ранее IBM представила решение, которое ищет ошибки в наборах данных для обучения ИИ-систем, которые определяют кредитный рейтинг.

3. Ценить мнение человека выше вывода ИИ

Эксперты отмечают, что ИИ еще предстоит пройти долгий путь. Отчасти проблема состоит в том, что искусственный интеллект все еще не очень интеллектуален, говорит Майкл Селлитто, заместитель директора Института ИИ Стэнфордского университета.

«Если вы извлечете алгоритм из привычного для него контекста, то он быстро потерпит неудачу», – отмечает он.

Сюда же относится некорректная работа ИИ из-за обучения на предвзятых или неполных данных – или данных, которые не подготавливают систему к оценке нюансов. Конгрессмен Ро Ханна напомнил, что Twitter заблокировал аккаунт политика Митча Макконнелла за публикацию видео с «угрозами насилия». Но дело в том, что в ролике были показаны угрозы противников Макконелла, а сам он осуждал такое поведение, а не поощрял его.

Ханна убежден, что из-за ошибок ИИ окончательное решение всегда должен принимать человек. В случае с блокировкой Макконнелла «оказалось, что контекст имел значение», говорит он. (Однако до конца неясно, что стало причиной этой блокировки – мнение алгоритма, модератора-человека или и то, и другое).

Но выбор людей, принимающих решения, тоже имеет значение. Например, в экспертном совете Института ИИ Стэнфордского университета преобладают бывшие или нынешние главы ИИ-титанов из Кремниевой долины. Лидерам отрасли, сделавшим ставку на эту технологию, вероятно, будет трудно принимать справедливые решения, которые принесут пользу всем, а не только бизнесу.

4. Сделать конфиденциальность свойством по умолчанию

В основе многих из этих проблем лежит конфиденциальность – ценность, которой давно не хватает в Кремниевой долине. Девиз основателя Facebook Марка Цукерберга «двигайся быстрее и ломай вещи» – фактически описание развития искусственного интеллекта, воплощенное в коллекции данных о клиентах самого Facebook. Часть претензий Федеральной торговой комиссии к соцсети, за которыми последовал штраф в 5 млрд долларов, заключалась в том, что она недостаточно ясно сообщала пользователям об использовании технологии распознавания лиц в загруженных фотографиях. Сейчас владельцы аккаунтов по умолчанию не участвуют в этом процессе – для запуска распознавания нужно дать отдельное соглашение. И это должно быть стандартом для всей технологической индустрии.

«Нам нужна нормативно-правовая база с очень конкретными условиями использования данных», – подчеркивает Ханна.

В идеальном мире некоторые данные не должны собираться ни в коем случае, особенно без согласия людей. Нконде работает еще над одним законопроектом об искусственном интеллекте, который запрещает использовать распознавание лиц в сфере социального жилья. Берни Сандерс призвал отказаться от этой технологии в полиции. Калифорния готова принять закон, который прекратит распознавание лиц на записях с камер видеонаблюдения. Власти Сан-Франциско, Окленда и Сомервилля (штат Массачусетс) уже запретили подобные системы и, вероятно, их примеру последует все больше городов, хотя такие решения все еще остаются исключениями из правил.

Технологические компании часто утверждают, что должны обладать правом свободно использовать анонимные данные. Однако восстановить личную информацию из таких записей достаточно легко. Исследование ученых из Гарварда показало, что 87% американцев можно идентифицировать по уникальной комбинации даты рождения, пола и почтового индекса. А в 2018 году исследователи MIT деанонимизировали жителей Сингапура, проанализировав данные о поездках в общественном транспорте и вызовах с мобильных телефонов.

5. Конкурировать, не нарушая гражданские права

Вопрос конфиденциальности занимает центральное место в технологическом споре между Китаем и США. Упрощенный взгляд на машинное обучение звучит так: чем больше данных, тем точнее алгоритм. ИИ в Китае выигрывает от беспрепятственного сбора информации о 1,4 млрд жителей, поэтому кажется сомнительным, что страна с более строгими требованиями к конфиденциальности может с ним конкурировать.

Но преимущество Китая связано с грубыми нарушения прав человека, такими как слежка за уйгурами – национальным меньшинством, которое исповедует ислам. Вездесущие камеры с распознаванием лиц позволяют отслеживать людей, а анализ их социальных отношений используется для оценки их опасности для государства.

По словам тайваньско-американского ИИ-эксперта и предпринимателя Кай-Фу Ли, который руководит китайской венчурной компанией Sinovation Ventures, китайцы отказываются от приватности гораздо проще, чем американцы.

«Люди в Китае с большей готовностью позволяют оцифровывать свои лица, голоса и выбор покупок», – пишет он в своей книге «Сверхдержавы искусственного интеллекта: Китай, Кремниевая долина и новый мировой порядок».

Это может измениться. Обширный сбор данных вирусным китайским приложением Zao вызвал негодование не только на Западе, но и в Китае, что вынудило Zao обновить свою политику.

Кроме того, страна с наибольшим количеством данных не выигрывает автоматически. «Это скорее гонка за человеческий капитал, чем за какой-либо конкретный источник данных», – говорит Селлитто из Стэнфордского Института ИИ. Хотя защита неприкосновенности частной жизни немного мешает сбору данных, зато она помогает привлекать таланты.

По данным исследования, проведенного Институтом Полсона, в США самая большая доля выдающихся исследователей ИИ, и большинство из них – иностранцы. Возможно, сильнее всего развитию ИИ в США мешает не массив данных Китая, а новая миграционная политика, которая затрудняет переезд одаренных разработчиков из других стран.

«В конечном счете, ценность гражданских свобод привлечет в США самых талантливых людей. Здесь возможна та свобода творчества и предпринимательства, которую не могут предложить авторитарные общества», – заключает Ханна.

Узнать больше об использовании информационных технологий для повышения эффективности бизнес-процессов вы сможете на Девятой конференции «Повышение эффективности корпоративных бизнес-процессов», которая пройдет 14-15 ноября 2019 года в Москве.

Источник: RB.RU

Наши конференции:


Комментарии