30.01.2018
0
118

Почему люди боятся ИИ?

Люди с недоверием и опаской относятся к Искусственный Интеллекту, и это вполне нормально. Боязнь нового заложено в наших генах инстинктом самосохранения. Да еще фантасты и прогнозы ученых не дают спокойно спать. Но давайте посмотрим на эту пугающую картину с другой стороны.

Искусственный интеллект уже может предсказывать будущее. Полиция использует его для сопоставления того, когда и где может произойти преступление. Врачи — для прогнозирования сердечного приступа или инсульта. Исследователи даже пытаются наделить ИИ воображением, чтобы он мог предвидеть неожиданные события и их последствия.

Многие решения в нашей жизни требуют хорошего прогноза, и ИИ справляется с этим лучше человека. Но вопреки технологическому прогрессу, мы с глубоким недоверием относимся к предсказаниям ИИ. Согласно недавним исследованиям, люди предпочитают верить человеку-эксперту нежели роботу, даже если первый ошибается. Но для того, чтобы ИИ приносил пользу людям, нам нужно научиться доверять ему.

СЛЕДУЕТ ЛИ ДОВЕРИТЬСЯ ДОКТОРУ-РОБОТУ?

Попытка IBM (один из крупнейших производителей и поставщиков программного обеспечения в США) продвинуть свою программу для врачей-онкологов (Watson for Onology), провалилась. Новая программа предоставляла все необходимые рекомендации по лечению 12 видов рака, на долю которых приходилось 80% случаев в мире. Сегодня, более 14000 пациентов получили рекомендации, основанные на ее расчетах.

Но когда врачи впервые взаимодействовали с Watson, они оказались в довольно сложной ситуации. С одной стороны, если рекомендации программы совпадали с мнением врача — он убеждался в верности своего решения и в отсутствии необходимости такого «помощника». Но ведь IBM еще не доказала, что Watson действительно улучшает показатели выживаемости.

С другой стороны, если Watson создаст рекомендацию, противоречащую мнению экспертов, врачи спишут это на не компетентность программы. К тому же, машина была не в состоянии объяснить, почему подобрала именно это лечение из-за сложности алгоритмов машинного обучения. В следствие этого, полученные данные вызвали еще большее недоверие, и многие врачи проигнорировали их, опираясь на собственный опыт.

В результате, главный партнер IBM Watson по медицине — доктор медицинских наук и онколог Anderson — недавно объявил о закрытии программы. Аналогичным образом, датская больница, отказалась от программы ИИ после обнаружения того, что онкологи не соглашались с Watson более чем в двух из трех случаев. Главная проблема в том, что врачи просто не верят ей. Человеческое доверие строится на мышлении другого человека и на его личном опыте. Это позволяет создать психологическое чувство безопасности. С другой стороны, ИИ это все еще довольно ново и чуждо многим людям. Он принимает решения с использованием сложной системы анализа для выявления потенциально скрытых шаблонов и слабых сигналов из больших объемов данных.

Процесс принятия решений ИИ всегда очень сложен для понимания, даже с простыми задачами. А взаимодействие с тем, чего мы не в силах понять вызывает беспокойство и неприятное чувство потери контроля над ситуацией. Многие люди не знакомы с многими примерами когда ИИ действительно работает, так как это обычно проходит в фоновом режиме.

Вместо этого, мы зацикливаемся на случаях когда ИИ ошибается: алгоритм Google Photos, который ошибочно принял двух афроамериканцев за горилл;  автомобиль Тесла, работающий в режиме автопилота, в результате которого произошел несчастный случай со смертельным исходом. Эти неудачные примеры получили непропорционально большое внимание средств массовой информации, подчеркнув «вывод» о том, что мы не можем полагаться на технологии. Машинное обучение не является надежным, отчасти потому, что люди, которые его проектируют, не являются таковыми.

НОВАЯ ЧАСТИЧКА В ОБЩЕСТВЕ?

Исследователями был проведен интересный эксперимент, в котором люди из разных слоев общества смотрели различные научно-фантастические фильмы об ИИ. Затем участники отвечали на вопросы об автоматизации в повседневной жизни. И не зависимо от того, смотрели участники фильм о ИИ в положительном или негативном аспекте, оптимисты стали более экстремальными в своем энтузиазме к ИИ, а скептики стали еще более осторожными.

Это говорит о том, что люди используют любую информацию через призму своего собственного мнения. Когнитивной наука описывает такое поведение, как глубоко укоренившуюся человеческую тенденцию, известную как предвзятость подтверждения (склонность к подтверждению своей точки зрения). Поскольку ИИ все чаще появляется в средствах массовой информации, это может способствовать развитию глубоко разделенного общества, расколотого между теми, кто пользуется ИИ и теми, кто его отвергает.

ТРИ ПУТИ К ДОВЕРИЮ ИИ

Первый способ до безобразия прост — увеличение доверия к ИИ посредством технологий. Согласно проведенным исследованиям, чем больше мы используем другие технологии, такие как Интернет, тем больше мы им доверяем.

Второе решение это открытие «черного ящика» — изучение машинного алгоритма для понимания, как он работает. Компании, такие как Google, Airbnb и Twitter, уже публикуют отчеты прозрачности о государственных запросах и раскрытии информации. Подобная практика поможет людям лучше понять алгоритмические решения.

Исследования показали, что вовлечение людей в процесс принятия решений ИИ, также могут повысить доверие и позволить ИИ учиться на человеческом опыте. Подобный эксперимент заключался в том, что участникам предоставлялась возможность слегка модифицировать алгоритм. В таком случае, люди чувствовали большую удовлетворенность от результатов его работы из-за чувства превосходства и возможности влиять на будущий исход.

Нам не нужно понимать всю сложную внутреннюю работу систем ИИ. Но если мы будем владеть базовой информацией и хотя бы минимальным контролем над его реализацией, нам легче будет впустить Искусственный Интеллект в свою жизнь.

Оригинал статьи в журнале The Conversation.

  •  
  •  
  •  
  •  
  •  
118

Подписаться на рассылку


Подписаться на рассылку


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: