OpenAI обнаружила, что некоторые пользователи создавали связи с голосовым режимом ChatGPT во время его раннего тестирования.
Реклама
OpenAI предупредила в четверг, что недавно выпущенная функция голосового режима для ChatGPT может привести к формированию пользователями социальных отношений с моделью искусственного интеллекта (ИИ). Информация была частью системной карты компании для GPT-4o, которая представляет собой подробный анализ потенциальных рисков и возможных мер безопасности модели ИИ, которую компания протестировала и изучила. Среди многих рисков одним из них была возможность того, что люди очеловечат чат-бота и разовьют привязанность к нему. Риск был добавлен после того, как были замечены его признаки во время раннего тестирования.
Голосовой режим ChatGPT может сделать пользователей привязанными к ИИ
В подробном техническом документе под названием System Card компания OpenAI подчеркнула социальные последствия, связанные с GPT-4o, и новые функции, поддерживаемые моделью ИИ, которую она выпустила на данный момент. Компания ИИ подчеркнула эту антропоморфизацию, которая по сути означает приписывание человеческих характеристик или поведения нечеловеческим сущностям.
OpenAI выразила обеспокоенность тем, что, поскольку Voice Mode может модулировать речь и выражать эмоции, подобные реальным людям, это может привести к тому, что пользователи начнут к нему привязываться. Опасения также не беспочвенны. Во время раннего тестирования, которое включало red-teaming (использование группы этичных хакеров для имитации атак на продукт с целью проверки уязвимостей) и внутреннее пользовательское тестирование, компания обнаружила случаи, когда некоторые пользователи формировали социальные отношения с ИИ.
В одном конкретном случае он обнаружил пользователя, выражающего общие связи и говорящего ИИ: «Это наш последний день вместе». OpenAI заявила, что необходимо исследовать, могут ли эти знаки развиться во что-то более эффективное за более длительный период использования.
Основная проблема, если опасения верны, заключается в том, что модель ИИ может повлиять на взаимодействие человека с человеком, поскольку люди все больше привыкают общаться с чат-ботом. OpenAI заявила, что, хотя это может принести пользу одиноким людям, это может негативно повлиять на здоровые отношения.
Другая проблема заключается в том, что расширенные взаимодействия ИИ и человека могут влиять на социальные нормы. Подчеркивая это, OpenAI привел пример того, что с помощью ChatGPT пользователи могут в любой момент прервать ИИ и «взять микрофон», что является антинормативным поведением, когда речь идет о взаимодействии человека с человеком.
Кроме того, существуют более широкие последствия установления связей между людьми и ИИ. Одной из таких проблем является убедительность. Хотя OpenAI обнаружила, что убедительность моделей недостаточно высока, чтобы вызывать беспокойство, это может измениться, если пользователь начнет доверять ИИ.
- Приложение ChatGPT для macOS позволит вам выполнять несколько задач одновременно с новым окном-компаньоном
- Инструмент распознавания текста ChatGPT существует, но OpenAI не выпускает его: отчет
- OpenAI заявляет о своей «преданности» безопасности в письме к законодателям США
На данный момент у компании ИИ нет решения для этой проблемы, но она планирует и дальше наблюдать за развитием событий. «Мы намерены и дальше изучать потенциал эмоциональной зависимости и способы, которыми более глубокая интеграция многих функций нашей модели и систем с аудиомодальностью может влиять на поведение», — заявили в OpenAI.