Открытое письмо подписано 13 бывшими и нынешними сотрудниками OpenAI, Google DeepMind и Anthropic.
Реклама
OpenAI и Google DeepMind входят в число ведущих технологических компаний, находящихся на переднем крае создания систем и возможностей искусственного интеллекта (ИИ). Однако несколько нынешних и бывших сотрудников этих организаций подписали открытое письмо, в котором утверждают, что надзор за созданием этих систем практически отсутствует или что основным рискам, связанным с этой технологией, уделяется недостаточно внимания. Открытое письмо одобрено двумя из трех «крестных отцов» ИИ, Джеффри Хинтоном и Йошуа Бенджио, и требует от своих работодателей более эффективной политики защиты информаторов.
Сотрудники OpenAI и Google DeepMind требуют права предупреждать об ИИ
В открытом письме говорится, что оно было написано нынешними и бывшими сотрудниками крупных компаний, занимающихся искусственным интеллектом, которые верят в потенциал ИИ принести беспрецедентную пользу человечеству. Это также указывает на риски, связанные с технологией, которые включают усиление социального неравенства, распространение дезинформации и манипуляций и даже потерю контроля над системами искусственного интеллекта, что может привести к вымиранию человечества.
В открытом письме подчеркивается, что само- структура управления, внедренная этими технологическими гигантами, неэффективна для обеспечения тщательного анализа этих рисков. В нем также утверждается, что «сильные финансовые стимулы» еще больше побуждают компании игнорировать потенциальную опасность, которую могут вызвать системы искусственного интеллекта.
Утверждая, что компании, занимающиеся ИИ, уже осведомлены о возможностях ИИ, ограничениях и уровнях риска различных видов вреда, открытое письмо ставит под сомнение их намерение принять корректирующие меры. «В настоящее время у них есть лишь слабые обязательства делиться частью этой информации с правительствами, но не с гражданским обществом. Мы не думаем, что можно рассчитывать на то, что они все поделятся этим добровольно», — говорится в сообщении.
В открытом письме выдвинуто четыре требования к работодателям. Во-первых, сотрудники хотят, чтобы компании не заключали и не применяли никаких соглашений, запрещающих их критику в отношении проблем, связанных с рисками. Во-вторых, они попросили ввести проверяемую анонимную процедуру для нынешних и бывших сотрудников, чтобы они могли поднимать проблемы, связанные с рисками, перед советом директоров компании, регулирующими органами и соответствующей независимой организацией.
Сотрудники также призывают организации развивать культуру открытой критики. Наконец, в открытом письме подчеркивается, что работодатели не должны принимать ответные меры в отношении существующих и бывших сотрудников, которые публично делятся конфиденциальной информацией, связанной с риском, после того, как другие процессы оказались неудачными.
Всего 13 бывших и нынешних сотрудников OpenAI и Google DeepMind подписали письмо. Помимо двух «крестных отцов» ИИ, этот шаг поддержал и британский ученый-компьютерщик Стюарт Рассел.
Бывший сотрудник OpenAI высказывается по этому поводу Риски ИИ
Один из бывших сотрудников OpenAI, подписавший открытое письмо, Дэниел Кокотайло, также сделал серию постов на X (ранее известном как Twitter), подчеркнув свой опыт работы в компании и риски ИИ. Он утверждал, что, когда он ушел из компании, его попросили подписать пункт о неунижении, чтобы он не мог высказывать что-либо критическое в адрес компании. Он также заявил, что компания угрожала Кокотайло лишить его принадлежащих ему акций за отказ подписать соглашение.
Кокотайло утверждал, что нейронные сети систем искусственного интеллекта быстро растут из-за больших наборов данных, которые им поступают. Кроме того, он добавил, что не существует адекватных мер для мониторинга рисков.
«Мы многого не понимаем в том, как работают эти системы и будут ли они по-прежнему соответствовать человеческим интересам, поскольку они Станьте умнее и, возможно, превзойдите интеллект человеческого уровня во всех сферах», — добавил он.
Примечательно, что OpenAI создает Model Spec — документ, с помощью которого она стремится лучше направлять компанию в создании этической технологии искусственного интеллекта. Недавно он также создал Комитет по охране и безопасности. Кокотайло аплодировал этим обещаниям в одном из постов.