ИИ (дез)информирует нас лучше и лучше
Исследователи проверили, насколько искусственный интеллект способен генерировать правдивую и ложную информацию. Оказалось, что нейросети могут создавать сообщения с более точными данными, чем у реальных пользователей, но при этом могут дезинформировать людей. Работа опубликована в журнале Science Advances.
Исследователи из Цюрихского университета оценили возможности искусственного интеллекта. Они хотели понять, каковы потенциальные риски и преимущества нейросетей при создании и распространении правдивой и ложной информации. Для этого ученые провели исследование с участием 697 человек. Люди должны были понять, является ли информация правдивой, а также постараться догадаться, сгенерирован ли твит ИИ (в данном исследовании — GPT-3) или создан настоящим пользователем.
Результаты исследования оказались двоякими. С одной стороны, нейросеть показала, что может генерировать точную (даже по сравнению с твитами реальных пользователей) и более понятную информацию. С другой стороны, все не так радужно — ученые обнаружили, что языковая модель ИИ может очень убедительно дезинформировать людей. При этом участники эксперимента не могли отличить твиты реального человека от твитов, написанных GPT-3. «Наше исследование раскрывает способность ИИ как информировать, так и вводить в заблуждение, поднимая важные вопросы о будущем информационных экосистем», — говорит Федерико Германи из Цюрихского университета.
Результаты эксперимента показывают, что информационные кампании, созданные искусственным интеллектом, будут гораздо эффективнее, например, в условиях кризиса общественного здравоохранения. В такой ситуации требуется быстрая и четкая коммуникация с людьми. Однако опасность того, что ИИ может широкомасштабно распространять ложную информацию, тоже тревожит ученых.
Роль нейросетей в создании и оценке информации становится все более заметной. «Результаты исследования подчеркивают критическую важность упреждающего регулирования для смягчения потенциального вреда, который могут причинить кампании по дезинформации, управляемые ИИ. Признание рисков, связанных с дезинформацией, которую способен создавать ИИ, имеет решающее значение для защиты общественного здоровья и поддержания надежной и безопасной информационной экосистемы в эпоху цифровых технологий», — прокомментировал Никола Биллер-Андорно из Цюрихского университета.