GPT-3 лучше, чем человек, информирует и дезинформирует нас

GPT-3 лучше, чем человек, информирует и дезинформирует нас

14 Aug 2023
86

В недавнем исследовании, проведенном учеными Цюрихского университета, изучались возможности моделей искусственного интеллекта (ИИ), в частности модели OpenAI GPT-3, с целью определения их потенциальных рисков и преимуществ при генерировании и распространении дезинформации. В исследовании, в котором приняли участие 697 человек, была поставлена задача оценить, могут ли люди отличить дезинформацию от достоверной информации, представленной в виде твитов. Кроме того, исследователи стремились определить, могут ли участники различить, был ли твит написан реальным пользователем Twitter или сгенерирован GPT-3, продвинутой языковой моделью искусственного интеллекта. Тематика сообщений включала изменение климата, безопасность вакцин, пандемию COVID-19, теорию плоской Земли и гомеопатические методы лечения рака.

Информация об этом исследовании была опубликована в журнале Science Advances.

С одной стороны, GPT-3 продемонстрировал способность генерировать точную и, по сравнению с твитами реальных пользователей Twitter, более понятную информацию. Однако исследователи также обнаружили, что эта языковая модель способна генерировать весьма убедительную дезинформацию. Удивительно, но участники эксперимента не смогли достоверно отличить сообщения, созданные GPT-3, от постов реальных пользователей Twitter. 

Полученные результаты позволяют предположить, что информационные кампании, созданные GPT-3, основанные на хорошо структурированных подсказках и оцениваемые обученными людьми, окажутся более эффективными, например, в условиях кризиса здравоохранения, требующего быстрого и четкого информирования населения. Полученные результаты также вызывают серьезные опасения относительно угрозы распространения дезинформации с помощью ИИ, особенно в контексте ее быстрого и широкого распространения во время кризиса или события в области общественного здравоохранения. Исследование показывает, что системы, работающие на основе ИИ, могут быть использованы для проведения широкомасштабных дезинформационных кампаний по практически любой тематике, ставя под угрозу не только здоровье населения, но и целостность информационных экосистем, жизненно важных для функционирования демократических государств.

Поскольку влияние ИИ на создание и оценку информации становится все более заметным, исследователи призывают политиков принять строгие, основанные на фактах и этически обоснованные нормативные акты, чтобы устранить потенциальные угрозы, создаваемые этими разрушительными технологиями. Признание рисков, связанных с дезинформацией, генерируемой ИИ, имеет решающее значение для защиты здоровья населения и поддержания надежной и заслуживающей доверия информационной экосистемы в цифровую эпоху.