Судебная битва Илона Маска против OpenAI: миссия или прибыль?
Судебное разбирательство, инициированное Илоном Маском против OpenAI, может кардинально изменить будущее компании. Ключевой вопрос заключается в том, как коммерческое подразделение лаборатории влияет на её изначальную миссию — обеспечение безопасности и пользы для человечества от развития искусственного интеллекта общего назначения (AGI).
В ходе слушаний в федеральном суде Окленда бывшая сотрудница и член совета директоров OpenAI поделилась тревожными наблюдениями. По её словам, компания постепенно отошла от исследовательской деятельности в сторону коммерциализации продуктов, что ставит под угрозу приоритет безопасности.
Культура безопасности под вопросом
Рози Кэмпбелл, присоединившаяся к команде готовности AGI в 2021 году, покинула OpenAI в 2024-м после расформирования своего подразделения. В тот же период была закрыта и команда Super Alignment, занимавшаяся вопросами безопасности. «Когда я начинала, компания была ориентирована на исследования, и безопасность AGI обсуждалась постоянно. Со временем акцент сместился на продукты», — заявила она в суде.
Под давлением адвокатов OpenAI Кэмпбелл признала, что для достижения целей по созданию AGI необходимы значительные инвестиции. Однако она подчеркнула: разработка сверхинтеллектуальных моделей без надёжных мер безопасности противоречит миссии компании, какой она её знала.
Особое внимание Кэмпбелл уделила инциденту с развёртыванием GPT-4 в Индии через поисковую систему Bing от Microsoft. Хотя сама модель не представляла серьёзной угрозы, эксперт отметила: «Важно установить чёткие прецеденты по мере усиления технологий. Необходимы надёжные процессы безопасности, которые соблюдаются неукоснительно».
Проблемы корпоративного управления
Случай с GPT-4 стал одним из сигналов для некоммерческого совета директоров OpenAI, которые в 2023 году временно отстранили генерального директора Сэма Альтмана. Причиной стали жалобы сотрудников, включая тогдашнего главного научного сотрудника Илью Суцкевера и технического директора Миру Мурати, на избегающий конфликтов стиль управления Альтмана.
Таша Макколи, входившая в совет директоров на тот момент, подтвердила опасения по поводу прозрачности руководства. По её словам, Альтман неоднократно вводил совет в заблуждение. Например, он солгал о намерениях Макколи уволить Хелен Тонер — ещё одного члена совета, опубликовавшего критический доклад о политике безопасности OpenAI. Кроме того, Альтман не проинформировал совет о решении запустить ChatGPT и скрывал потенциальные конфликты интересов.
«Мы — некоммерческий совет, и наша задача — контролировать коммерческое подразделение. Однако доверие к предоставляемой информации было подорвано, что мешало принимать обоснованные решения», — пояснила Макколи.
Решение об отставке Альтмана совпало с предложением о выкупе акций сотрудниками компании. Когда персонал OpenAI и Microsoft выступили в поддержку Альтмана, совет директоров был вынужден отменить своё решение, а его противники покинули свои посты.
Миссия под угрозой?
Эксперт по корпоративному праву Дэвид Шайзер, привлечённый командой Маска, поддержал опасения Макколи. «OpenAI заявляет, что безопасность — приоритет номер один, и прибыль не должна ей мешать. Однако для этого необходимо строго соблюдать процедуры проверки безопасности. Важен не только результат, но и процесс», — подчеркнул он.
Случай OpenAI — лишь верхушка айсберга. Искусственный интеллект уже глубоко интегрирован в коммерческие структуры, и проблемы внутреннего управления одной лаборатории могут иметь глобальные последствия. Макколи призвала к усилению государственного регулирования AGI: «Если решения о безопасности зависят от одного человека, а на кону — общественное благо, это крайне неэффективный подход».
*Признаны экстремистскими организациями и запрещены на территории РФ.
Комментарии
Комментариев пока нет.