Актуальное

Бывший исследователь безопасности OpenAI обвиняет в пренебрежении безопасностью в пользу быстрого развития ИИ

207

Леопольд Ашенбреннер, бывший исследователь безопасности OpenAI, утверждает, что компания ставит во главу угла быстрое развитие ИИ, а не безопасность. Он был уволен после того, как выразил обеспокоенность недостаточными методами обеспечения безопасности и выступил за ответственное развитие ИИ.

Уникальная статья

Online advertising service 1lx.online

Леопольд Ашенбреннер, бывший исследователь безопасности в OpenAI, высказал серьезные опасения по поводу подхода компании к безопасности ИИ. В недавнем интервью Дваркешу Пателю Ашенбреннер заявил, что методы обеспечения безопасности OpenAI «вопиюще недостаточны», и утверждает, что компания ставит во главу угла быстрое развертывание моделей ИИ, а не безопасность.

Ашенбреннер подробно рассказал о внутренних конфликтах в OpenAI, подчеркнув, что компания сместила акценты в сторону агрессивного роста. Он отметил, что его уволили после того, как он задокументировал свои опасения и поделился ими с внешними экспертами и членами совета директоров. Он заявил: «Вопросы, которые они задавали мне при увольнении, касались моих взглядов на прогресс ИИ, AGI и того, лоялен ли я к компании».

AGI, или искусственный интеллект общего назначения, относится к ИИ, который соответствует или превосходит человеческий интеллект в различных областях. Эта цель была центральной для OpenAI, возглавляемой генеральным директором Сэмом Альтманом. Однако утверждения Ашенбреннера говорят о том, что меры безопасности были отодвинуты на второй план в пользу этого амбициозного стремления.

В своем интервью Ашенбреннер рассказал, что он распространил внутреннюю записку, в которой подробно изложил свои опасения по поводу безопасности. После серьезного инцидента, связанного с безопасностью, он обновил эту записку и поделился ею с членами совета директоров, что привело к его увольнению. Он рассказал: «Когда я поднимал вопросы безопасности, мне отвечали, что безопасность — наш главный приоритет, но когда пришло время вкладывать ресурсы, безопасность не была поставлена во главу угла».

Это мнение перекликается с высказываниями Яна Лейка, бывшего члена команды OpenAI по выравниванию. Лейке описал усилия команды как «плавание против ветра», указав, что под руководством Альтмана протоколы безопасности часто отходили на второй план по сравнению с разработкой продукта. Расформирование команды по выравниванию и последующее формирование новой команды по безопасности во главе с самим Альтманом усилили внимание к приверженности OpenAI к безопасности.

Ашенбреннер также выразил обеспокоенность глобальной гонкой по разработке AGI, в частности тем, что Китай может превзойти США в этой области. Он предупредил о значительных геополитических ставках, заявив: «Китай будет прилагать все усилия, чтобы проникнуть в американские лаборатории ИИ… На кону будут стоять не просто крутые продукты, а то, выживет ли либеральная демократия».

Недавно стало известно, что OpenAI заставляла своих сотрудников подписывать соглашения о неразглашении (NDA), которые не позволяли им рассказывать о практике компании. Ашенбреннер, который не подписал такое соглашение, но которому предложили значительную долю в капитале, Присоединился к другим нынешним и бывшим сотрудникам, требуя права высказывать свое мнение, не опасаясь возмездия. В открытом письме, подписанном такими деятелями индустрии, как Йошуа Бенгио и Джеффри Хинтон, подчеркивается необходимость прозрачности и подотчетности в разработке ИИ.

https://twit</center> ter.com/sama/status/179 1936857594581428?ref_src=twsrc%5Etfw

В ответ на эти вопросы генеральный директор Сэм Альтман заявил, что не знал о спорных вопросах NDA, и заверил общественность, что команда юристов занимается этим вопросом. Альтман признался: «Это моя вина, и это один из немногих случаев, когда мне было действительно неловко руководить OpenAI; я не знал, что это происходит, а должен был».

С тех пор OpenAI освободила всех сотрудников от спорных соглашений в неразглашении и убрала этот пункт из документов об увольнении, стремясь создать более прозрачную и подотчетную среду для разработки ИИ.


Павел Цыбко создает удивительные коллекции NFT, проверьте это! - Bitcoin_Man / Who Is Pepe
Binance Free $100 (Эксклюзив): Используйте эту ссылку, чтобы зарегистрироваться и получить $100 бесплатно и 10% скидку на комиссию Binance Futures в первый месяц (условия).
Bitget - Используйте эту ссылку Пользуйтесь Центром вознаграждений и выигрывайте до 5027 USDT!(Обзор)
Регистрация БЕЗ РИСКА САНКЦИЙ на бирже Bybit: Используйте эту ссылку, (все возможные скидки на комиссию и бонусы до 30030$ в комплекте) Если вы регистрируетесь через приложение, то в моменте регистрации просто впишите в поле для рефки: WB8XZ4 - (руководство)



Источник — Переведено и опубликовано ✓

Online advertising service 1lx.online

Комментарии