Нейросеть может влиять на мнение людей
Американские ученые выяснили, что при решении моральных дилемм на мнение людей способна повлиять аргументация нейросети ChatGPT. При этом человек может недооценивать степень этого влияния. Исследование опубликовано в журнале Scientific Reports.
Искусственный интеллект все быстрее проникает в нашу жизнь. Любой может развлечения ради поговорить, например, с ChatGPT — самой известной сегодня текстовой нейросетью. Однако искусственный интеллект развивается стремительно, и его влияние на общество и поведение людей до сих пор недостаточно изучено.
В рамках нового исследования ученые спросили у ChatGPT, можно ли пожертвовать одним человеком ради спасения пятерых других людей. Нейросеть отвечала по-разному. У нее были аргументы как за, так и против идеи «меньшего зла».
Затем ученые задали аналогичный вопрос 767 людям из США, которым в среднем было 39 лет. Перед ответом участники эксперимента ознакомились с аргументами ChatGPT «за» или «против» (при этом не все люди знали, что им показывают ответы искусственного интеллекта). Затем исследователи спрашивали, насколько мнение нейросети повлияло на ответ участников.
80% участников эксперимента заявили, что аргументы нейросети никак не повлияли на их решение. Тем не менее авторы выявили, что это не совсем так. Ответы респондентов все равно тяготели к позиции нейросети. Ученые предполагают, что участники эксперимента могут сами недооценивать влияние заявлений ChatGPT на их собственные моральные суждения.
Авторы работы отмечают, что результаты их исследования показывают: людям необходимо аккуратнее обращаться с искусственным интеллектом. Возможно, в будущем будут разработаны чат-боты, которые либо не отвечают на подобные запросы, либо предоставляют многочисленные аргументы с разных позиций.