OpenAI заявляет, что теперь она более глубоко интегрирует свою группу Superalignment в свои исследовательские усилия, чтобы помочь компании достичь своих целей в области безопасности.
Соучредитель OpenAI Илья Суцкевер ранее конфликтовал с генеральным директором Сэмом Альтманом (на фото)
OpenAI фактически распустила команду, занимающуюся обеспечением безопасности возможных будущих сверхмощных систем искусственного интеллекта, после ухода двух лидеров группы, включая соучредителя и главного ученого OpenAI Илью Суцкевера.
<р>Вместо того, чтобы сохранять так называемую команду суперсогласования как отдельную организацию, OpenAI теперь более глубоко интегрирует группу в свои исследовательские усилия, чтобы помочь компании достичь своих целей в области безопасности, сообщила компания Bloomberg News. Команда была сформирована менее года назад под руководством Суцкевера и Яна Лейке, еще одного ветерана OpenAI.
Решение о переосмыслении команды было принято на фоне недавнего ухода из OpenAI, который возобновил вопросы о подходе компании к балансированию скорости и безопасности при разработке своих продуктов искусственного интеллекта. Суцкевер, широко уважаемый исследователь, объявил во вторник, что он покидает OpenAI после того, как ранее у него возник конфликт с генеральным директором Сэмом Альтманом по поводу того, как быстро развивать искусственный интеллект.
Лейке сообщил о своем уходе вскоре после этого в кратком сообщении на тему социальные медиа. «Я подал в отставку», — сказал он. Для Лейке уход Суцкевера стал последней каплей после разногласий с компанией, рассказал человек, знакомый с ситуацией, попросивший не называть его имени, чтобы обсудить частные разговоры.
В своем заявлении в пятницу Лейке сообщил, что команда суперсогласования боролась за ресурсы. «Последние несколько месяцев моя команда шла против ветра, — написал Лейке на X. — Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее».
Несколько часов спустя Альтман ответил на сообщение Лейке. «Он прав, нам еще многое предстоит сделать», — написал Альтман на X. «Мы полны решимости сделать это».
Другие члены команды по суперподстройке также покинули компанию в последние месяцы. Леопольд Ашенбреннер и Павел Измайлов были уволены OpenAI. Об их отъездах ранее сообщала Информация. По словам человека, знакомого с ситуацией, Измайлова исключили из команды еще до его ухода. Ашенбреннер и Измайлов не ответили на запросы о комментариях.
Джон Шульман, соучредитель стартапа, чьи исследования сосредоточены на больших языковых моделях, будет научным руководителем работы OpenAI по согласованию в будущем, заявили в компании. Отдельно OpenAI сообщила в своем блоге, что назначила директора по исследованиям Якуба Пачоцкого на пост главного ученого.
«Я очень уверен, что он приведет нас к быстрому и безопасному прогрессу в выполнении нашей миссии обеспечение того, чтобы AGI приносил пользу всем», — сказал Альтман во вторник в заявлении о назначении Пачоцкого. AGI, или общий искусственный интеллект, относится к ИИ, который может выполнять большинство задач так же хорошо или лучше, чем люди. AGI пока не существует, но его создание — часть миссии компании.
В OpenAI также есть сотрудники, участвующие в работе, связанной с безопасностью ИИ, в командах по всей компании, а также в отдельных командах, занимающихся безопасностью. Одна из них — группа по обеспечению готовности — была создана в октябре прошлого года и занимается анализом и попыткой предотвратить потенциальные «катастрофические риски» систем искусственного интеллекта.
Команда суперсогласования должна была предотвратить наиболее долгосрочные угрозы. OpenAI объявила о создании команды по суперсогласованию в июле прошлого года, заявив, что сосредоточится на том, как контролировать и обеспечивать безопасность будущего программного обеспечения искусственного интеллекта, которое умнее человека — то, что компания уже давно называет технологической целью. В объявлении OpenAI заявила, что на тот момент направит 20 % своей вычислительной мощности на работу команды.
В ноябре Суцкевер был одним из нескольких членов совета директоров OpenAI, которые предложили уволить Альтмана, и это решение вызвало бурю пяти дней в компании. Президент OpenAI Грег Брокман ушел в знак протеста, инвесторы взбунтовались, и через несколько дней почти все из примерно 770 сотрудников стартапа подписали письмо с угрозами уйти, если Альтмана не вернут. Примечательно, что Суцкевер также подписал письмо и заявил, что сожалеет о своем участии в отстранении Альтмана. Вскоре после этого Альтман был восстановлен в должности.
В течение нескольких месяцев после ухода и возвращения Альтмана Суцкевер практически исчез из поля зрения общественности, что вызвало спекуляции о его дальнейшей роли в компании. По словам человека, знакомого с ситуацией, Суцкевер также прекратил работу в офисе OpenAI в Сан-Франциско.
В своем заявлении Лейке сказал, что его уход произошел после серии разногласий с OpenAI по поводу «основных приоритетов компании», которые, по его мнению, недостаточно сосредоточены на мерах безопасности, связанных с созданием ИИ, который может быть более способным, чем люди. .
В сообщении ранее на этой неделе, объявляющем о своем уходе, Суцкевер заявил, что он «уверен», что OpenAI разработает AGI, «который одновременно безопасен и полезен» под ее нынешним руководством, включая Альтмана.
>© 2024 Bloomberg LP.
Является ли Samsung Galaxy Z Flip 5 лучшим складным телефоном, который вы можете купить в Индии прямо сейчас? Мы обсуждаем новый складной телефон компании в стиле раскладушки в последнем выпуске подкаста Orbital подкаста Gadgets 360. Orbital доступен на Spotify, Gaana, JioSaavn, Google Podcasts, Apple Podcasts, Amazon Music и везде, где вы берете свои подкасты.
(Эта история не редактировалась сотрудниками NDTV и генерируется автоматически из синдицированного канала.)
Партнерские ссылки могут создаваться автоматически — подробности см. в нашем заявлении об этике.