ИИ сломал теорию игр: ChatGPT разрушает доверие и кооперацию

от admin

При использовании ИИ люди реже доверяют друг другу, даже если «умный» помощник действует логично и рационально

Новое масштабное исследование показало, что участие ChatGPT в принятии решений снижает доверие и подрывает готовность к сотрудничеству. Даже если ИИ действует логично и выгодно, люди воспринимают его участие с подозрением.

Как проводили исследование

Почти 3000 человек играли в пять классических экономических игр: «Ультиматум», «Доверие», «Дилемма заключенного», «Охота на оленя» и «Координация». Участникам говорили, что их партнер либо просто человек, либо человек, который делегировал решение ChatGPT. Иногда — явно, иногда скрыто.

Результаты оказались неожиданными. Люди меньше кооперировали, если знали, что решение за партнера принимал ИИ. Даже рациональные и выгодные действия вызывали пониженное доверие.

Люди сами охотно делегируют — но скрытно

Когда участники сами могли выбрать, использовать ли ChatGPT, они охотно делегировали принятие решений, особенно если другая сторона об этом не знала. В условиях непрозрачности делегирование удваивалось.

Читать также:
В Китае прошел первый в мире турнир по боксу среди гуманоидных роботов

Что значит быть инженером в новых реалиях? И какой смысл мы вкладываем в эти слова — расскажем на GPB CONF!tproger.ru

Это говорит о том, что участники понимают возможную негативную реакцию на ИИ и предпочитают скрывать его участие.

Персонализация не спасает

Даже когда ChatGPT адаптировал поведение под личные предпочтения пользователя, уровень доверия не восстанавливался. Люди продолжали считать, что ИИ не отражает их взглядов.

Прозрачность ухудшает ситуацию

Главный вывод — открытое использование ИИ не увеличивает доверие, а наоборот. Чем больше люди знали об участии ИИ, тем меньше честности и кооперации было в их поведении.

Это противоречит ожиданиям, что прозрачность повышает этичность. На практике она делает взаимодействие холодным и отчужденным.

Похожие статьи