Взаимоотношения искусственного интеллекта и человека

Готовы ли люди принять такие инструменты искусственного интеллекта, как ChatGPT? Исследования показывают, что не все так однозначно.

Девочка и робот

Какие вопросы ставят перед сотрудниками и клиентами такие технологии как ChatGPT?

Если вы спросите что-то у ChatGPT, самого популярного на данный момент инструмента искусственного интеллекта (ИИ), вы получите почти мгновенный, абсолютно определенный и зачастую неверный ответ. Это похоже на разговор с экономистом. Ответы на вопросы, которые возникают в связи с  использованием таких технологий, как ChatGPT, очень приблизительны. Но это те вопросы, которыми сейчас должны задаваться менеджеры.

Один из таких вопросов – что делать с беспокойством сотрудников о гарантиях их занятости? Это беспокойство естественно. Одно дело — ИИ, который  сокращает  расходы на осуществление различных процессов; совсем другое — ИИ, с которым люди предпочли бы сидеть рядом на званом ужине. Четкое понимание того, куда работники смогут перенаправить время и энергию, высвобождаемые ИИ, поможет им его принять. Так же, как и создание чувства собственной значимости. Исследование, проведенное MIT Sloan Management Review и Boston Consulting Group, показало, что возможность управлять ИИ повышает вероятность того, что сотрудники будут его использовать.

Однако, не совсем ясно, действительно ли людям необходимо понимать, что происходит внутри ИИ. Интуитивно понятно, что лучше иметь возможность следить за ходом рассуждения алгоритма, чем этой возможности не иметь. Однако исследование, проведенное учеными Гарвардского университета, Массачусетского технологического института и Миланского политехнического университета, показывает, что лишние подробности тоже могут стать проблемой.

Сотрудникам Tapestry, холдинга в сфере производства предметов роскоши, был предоставлен доступ к модели прогнозирования, которая подсказывала им, как распределять продукцию по магазинам. Одни использовали модель, логику которой можно было объяснить, другие — модель, которая была скорее «черным ящиком». Оказалось, что работники чаще отклоняли понятные им модели, поскольку ошибочно были уверены в собственной интуиции. И наоборот, они с готовностью принимали решения модели, которую они не могли понять, потому что были уверены в экспертности людей, которые ее создали. Это говорит о том, что компетенция тех, кто стоит за ИИ, имеет значение.

Разные способы реагирования людей на человека и алгоритмы — это активно развивающаяся в настоящее время область исследований. В своей недавней работе Гизем Ялчин из Техасского университета в Остине и ее соавторы изучали, по-разному ли реагируют потребители на решения, например, одобрить им кредит или членство в загородном клубе, когда в одном случае их принимает машина, а в другом  человек. Исследователи обнаружили, что люди реагировали одинаково, когда им отказывали. А в случае, когда их заявку одобряли, они чувствовали большее расположение к организации, в которой решение принимал человек, а не алгоритм. В чем же причина? Так сложилось, что люди хорошо умеют объяснять себе негативные решения, кто бы их ни принимал. А в случае положительного ответа, им сложнее признать свои собственные достоинства, если их оценивает машина. Люди хотят чувствовать себя особенными, а не быть сведенными к массиву данных.

В готовящейся к публикации работе Артур Яго из Университета Вашингтона и Гленн Кэрролл из Стэнфордской высшей школы бизнеса исследуют способность людей выражать признание другим за их работу, в частности, за работу, которую кто-то сделал не самостоятельно. Они показывали добровольцам произведение искусства или бизнес-план, которые приписывались конкретному человеку. А затем раскрывали, что на самом деле это было создано либо с помощью алгоритма, либо с помощью других людей. Человеку, которому помогли, добровольцы отдавали меньшее предпочтение. И особенно ярко это выражалось для работ, в создании которых участвовали реальные помощники. Это объясняется тем, что, во-первых, участники считают контроль над работой алгоритма более сложной задачей, чем контроль над работой людей. А, во-вторых, они считают несправедливым, когда кто-то присваивает себе заслуги за работу другого человека.

В другой работе, написанной Ануджем Капуром из Индийского института менеджмента Ахмадабада и его соавторами, рассматривается вопрос о том, кто эффективнее помогает людям сбросить вес — искусственный интеллект или человек. Авторы проанализировали снижение веса, которого достигли пользователи индийского мобильного приложения. Часть из них пользовалась только ИИ-тренером, а часть дополнительно прибегала к услугам реального тренера. Исследователи обнаружили, что люди, которые пользовались услугами тренера-человека, теряли больше веса, ставили перед собой более жесткие цели и тщательнее вели учет своей активности. Но в то же время люди с большей массой тела добились меньших результатов с тренером, чем те, кто весил меньше. Авторы предполагают, что причина заключается в том, что более тяжелые люди могут испытывать большее смущение при общении с другим человеком.

Картина, которая вырисовывается в результате таких исследований, неоднозначна и динамична. Вместе с развитием технологий изменяется и отношение к ним. Но в одном она абсолютно ясна. Влияние ChatGPT и других ИИ будет зависеть не только от того, что они могут делать, но и от того, как они заставляют людей себя чувствовать.

Понравилось? Оставьте комментарий

Ваш адрес не будет опубликован


*