Crowdsourcing.ru  Нас уже 0 человек

NEW! Беплатные консультации. Помощь в подготовке и проведении Краудфандинговых проектов. Подробнее.

Сервис Статистики и продвижения краудфандинговых проектов CrowdfundingPR

Краудсорсинг: обучение искусственного интеллекта морали

АВТОРСКОЕ

Разработка этики для автоматизированных систем

Если бы искусственный интеллект (ИИ) действовал как человек, то он бы принимал решения, руководствуясь собственным моральным выбором. Но как же нам обучить искусственный интеллект человеческой морали?

Для разгадки этого вопроса необходимо заметить, что каждый из нас мораль познает для себя. Нас учат учителя, родители и лидеры морали той культуры, к которой они относятся. Поскольку эти культуры являются побочным продуктом миллионов людей, в некотором смысле, мы можем рассматривать нашу собственную мораль как источник толпы людей. И, действительно, идея краудсорсинга сейчас рассматривается как жизнеспособный способ научить ИИ человеческой морали.

Большинство систем искусственного интеллекта сегодня учатся с помощью больших данных. Некоторые из пионеров (исследователей MIT) по морали краудсорсинга нашли инструмент, который позволяет большим группам людей работать в режиме реального времени. Люди предлагают, как машины должны принимать решения в моральных дилеммах. Решение представляет собой массовый набор данных, который фиксирует моральные позиции людей по всему земному шару.

Критика

Существует критика использования краудсорсинга для установления морали, в том числе, профессор права Корнельского университета Джеймс Гриммельманн отмечает, что люди часто находятся под влиянием мнения толпы, и поэтому группой консенсус по моральному решению не делает это решение моральным, а лишь популярным. Эта критика предполагает, что моральное принятие решений происходит в частном порядке или анонимно, и что пересмотр нынешней общественной системы - шаг к большему пониманию морали.

Еще одна проблема при исследовании морали инструментами краудсорсинга заключается в том, что к этике любой автоматизированной системы относится  этика программного обеспечения, сделанного программистами, то есть людьми. Это делает автоматизированные системы уязвимыми для внедрения аморальных взглядов.

Существует ряд примеров развития разговорного искусственного интеллекта, где эти вопросы могут возникнуть. Microsoft анонсировал новые разговорные возможности ИИ, которые сделают Cortana более интеллектуальным и полезным. Amazon разрабатывает устройство на базе искусственного интеллекта, которое сможет понять эмоциональный тон в человеческом голосе.

Работники-привидения

Компании, которые продолжают приобретать разговорные возможности ИИ в масштабе способствуют работе призраков, или автоматизированной работе, выполняемой неафишируемыми работниками и выдаваемой за «магию программного обеспечения».

Частный случай этого - Google Duplex, который использует человеческий труд для того, чтобы заполнять данные для своих «автоматических» бронирований ресторанов. Бронирования, сделанные Google Duplex, выполняются исключительно людьми, но это не афишируется.

В данном случае сложно сказать, является ли эта работа моральной или аморальной. Этот пример показывает необходимость разоблачить эту цепочку для потребителей, а также привлечь внимание работникам к своим нуждам.

Дополнительный риск состоит в морали выбора, которую отражают данные ИИ. По всеобщему мнению, один из примеров этого - кризис разнообразия ИИ, проявляющийся в том, что набор больших данных о найме содержит человеческие предубеждения, к примеру, на рабочих местах исторически доминировали мужчины.

В 2014 году Automation Tycoon Amazon обучили алгоритм найма для выявления закономерностей в резюме успешных кандидатов в сотрудники, и только недавно обнаружили, что процесс найма благоприятствовал мужчинам, а, следовательно, и алгоритм тоже. Этот тип смещения может усилить систематическое угнетение; если обобщить, то похожие неосознанные предубеждения  можно найти и в других сферах. Используемые для обучения систем ИИ большие данные, должны быть: проверены на историческую предвзятость перед использованием и скорректированы для будущего использования. Ответственность за это должна лежать на разработчиках системы.

Обнаружение предвзятостей могли бы ложиться в основу отчетов о конкретных практиках человека, например, моральный табель успеваемости для рекомендаций, преследующих цель большего морального понимания.

Прогнозная полиция

Подобный уклон также проявляется в прогностических алгоритмах полицейских служб, которые все чаще используют исторические данные: записи об арестах и полицейские отчеты для прогнозирования преступности. В то время как этот вид прогностического анализа для таких компаний, как The Weather Channel, где данные неточны или необъективны, в настоящее время не несет большого риска, последствия, связанные с использованием прогнозов правоохранительными органами, огромны. Пример, в котором краудсорсинг может быть менее предвзятым, чем существующие данные - это то, когда мы считаем предвзятостью коллективное культурное мнение, которое более приемлемо в настоящем, чем в прошлом.

Похожее наблюдение, которое обосновывает применение ИИ, касается распознавания лиц, специализирующихся на распознавании расы. В то время как это может быть полезно для исследователей рынка, ищущих демографическую основу для продаж, этот тип ИИ может также использоваться для систематического усиления расового профилирования.

Кадры GoPro являются основанием для задержания цветного человека сотрудниками полиции. Это причина, почему некоторые штаты США (Мичиган), рассматривали запрет использования правоохранительными органами этих данных. Это ограничение ИИ, но его перспективы поистине безграничны.

По пути романа

Наша этика определяется опытом, которому мы подвергались, и культурой людей, которые пытались научить нас правильному и неправильному. Сложность в том, что моральные решения часто носят индивидуальный характер, и поэтому краудсорсинг лучше всего использовать, когда пользователи взаимодействуют индивидуально - будь то через платформу, которая позволяет это уединение или через исторические источники, которые показывают качественные данные, а не просто общие цифры. Google Brain, например, использовал 11 000 романов для прокачки своих разговорных способностей посредством эмоционально богатых и разнообразных предложений и грамматических конструкций. Этот же метод может использоваться в краудсорсинге для выявления моральных рамок, так как классическая литература имеет богатую историю освещения спорных этических дилемм.

Мы учились (и учимся) путем обобщения. ИИ же пока не может сократить процесс обучения до усвоения абстрактного урока. До этих пор доверять искусственному интеллекту принимать морально обоснованные решения без вмешательства человека рискованно.

Моральные дорожные карты

Возможно, трудность в том, что обучение ИИ действиям, наблюдениям и принятию решений по подобию человека основывается на предположении, что ИИ не является человеком. Мы должны вместо этого предположить, что исторические данные, хотя и существенны, но лишены эмоционального контекста и не являются достаточными для того, чтобы сформировать надежную моральную систему.

В таком русле мысли, состав наших моральных дорожных карт - это краудсорсинговые культурные истории. Краудсорсинг - это естественный механизм и ясный путь к моральному ИИ.

При взгляде в сторону будущего этой технологии, можно сказать, что человеческая мораль может быть тем же высоким стандартом в настоящее время, к которому мы можем устремлять ИИ. Вопрос не в том, можно ли доверять роботу, а можем ли мы доверять самим себе?

( 0 / 0 )

Оценивать могут только зарегистрированные пользователи

Все виды услуг по Краудфандингу, Краудсорсингу и Краудинвестингу. Консультации, подготовка и проведение Краудфандинговых проектов. Оставьте заявку и мы с Вами свяжемся в течение часа!

Вы можете первым прокомментировать этот материал