Глава робототехники openai Калиновски уходит из-за сделки с Пентагоном

Глава направления робототехники OpenAI Кейтлин Калиновски объявила, что покидает компанию. Поводом для такого шага стало недавнее соглашение OpenAI с Министерством обороны США, которое допускает использование разработок компании в задачах, связанных с национальной безопасностью, и вызвало новую волну дискуссий о военном применении ИИ.

В своём обращении в соцсетях Калиновски отметила, что решение об уходе далось ей непросто. Она подчеркнула, что признаёт важность технологий искусственного интеллекта для обороны и безопасности страны, однако уверена, что не все этические и правовые аспекты были достаточно тщательно проработаны до объявления сделки.

По её словам, вопросы тотального наблюдения и автономного вооружения должны обсуждаться максимально открыто и подробно, с участием общества, экспертов и законодателей. Калиновски отдельно указала, что такие темы нельзя решать в спешке и кулуарно, особенно когда речь идёт о технологиях, способных радикально изменить баланс сил и границы личной свободы.

"Наблюдение за гражданами США без надлежащего судебного контроля и создание систем вооружений, способных действовать автономно, без участия человека, - это рубежи, которые заслуживают куда более обстоятельного обсуждения", - написала она. По её мнению, подобные решения должны сопровождаться жёсткими и ясно прописанными ограничениями, а также прозрачным механизмом их соблюдения.

Калиновски пришла в OpenAI в ноябре 2024 года, чтобы возглавить направление робототехники. До этого она работала в Meta, где руководила разработкой устройств дополненной реальности, в том числе очков AR нового поколения. В OpenAI она курировала проекты по интеграции ИИ в физические устройства и роботизированные системы, фактически формируя стратегию компании в области "воплощённого ИИ" - систем, которые не только думают, но и действуют в реальном мире.

В своём заявлении она отдельно подчеркнула, что расстаётся с OpenAI не из-за конфликтов с руководством или коллегами. По её словам, команда и управленцы компании остаются одними из сильнейших в индустрии. Причина ухода - ценностное несогласие с тем, как именно организован процесс принятия решений по столь чувствительным и потенциально опасным направлениям применения ИИ.

Позже Калиновски уточнила, что её главная претензия связана с управленческой стороной вопроса: "Проблема в том, что объявление было сделано слишком быстро, без ясно обозначенных рамок и ограничений. Это прежде всего вопрос управления подобными решениями, а не только самих технологий". Она фактически указала на дефицит прозрачности и недостаток времени для внутренней и внешней экспертизы перед заключением сделки.

Представитель OpenAI подтвердил изданию TechCrunch, что Калиновски действительно покинула компанию. Официальная позиция OpenAI сводится к тому, что соглашение с Пентагоном строго регламентировано и включает в себя чёткие запреты на наиболее спорные сценарии применения искусственного интеллекта.

В компании подчёркивают, что договор с Министерством обороны США ограничен задачами национальной безопасности и не допускает использования их моделей для массового внутреннего наблюдения за гражданами США. Отдельной строкой прописан запрет на применение технологий OpenAI в полностью автономных системах вооружений - то есть там, где решения о применении силы принимаются без участия человека.

Соглашение с Пентагоном было объявлено всего немного более недели назад, но уже успело стать одной из самых обсуждаемых тем в индустрии. Оно появилось на фоне неудачных переговоров Министерства обороны с другой крупной ИИ-компанией - Anthropic. Та попыталась добиться более жёстких гарантий, исключающих применение её технологий в системах массового слежения и автономных видах вооружений, и в итоге от соглашения отказалась.

После того, как переговоры с Anthropic окончательно зашли в тупик, Пентагон обозначил компанию как "риск для цепочки поставок" - фактически дав понять, что рассчитывать на тесное сотрудничество с Министерством обороны стартап в обозримом будущем не может. На этом фоне объявление OpenAI о собственной сделке с военным ведомством было воспринято как резкий поворот в отраслевой расстановке сил.

Согласно заявлениям OpenAI, договор позволит использовать их модели внутри защищённых правительственных систем, в том числе там, где необходимы повышенные требования к безопасности данных и устойчивости инфраструктуры. Фактически это открывает доступ к крупным государственным заказам, но одновременно усиливает подозрительность части общества и экспертного сообщества, опасающихся "милитаризации" ИИ.

Общественная реакция на соглашение и последующий скандал с уходом Калиновски уже отразилась на пользовательском поведении. По оценкам аналитиков, количество удалений приложения ChatGPT за короткий период выросло примерно на 295%. На этом фоне набирает популярность приложение Claude от Anthropic, которое поднялось в верхние позиции рейтинга App Store, отчасти благодаря своему более жёсткому публичному курсу в отношении военного использования ИИ.

На выходных приложения Claude и ChatGPT фактически соревновались за лидерство среди бесплатных приложений в App Store США, занимая первое и второе места соответственно. Такая динамика демонстрирует, что для значимой части пользователей этический образ компании и её позиция в вопросах сотрудничества с военными структурами становятся не менее важными, чем качество самих моделей.

Ситуация с уходом главы робототехники OpenAI подчёркивает более широкий конфликт, который назревает в отрасли: между коммерческими и государственными интересами, с одной стороны, и этическими ограничениями - с другой. Для многих специалистов ИИ вовлечение в оборонные проекты может означать доступ к уникальным ресурсам и масштабным задачам, но одновременно несёт риски утраты контроля над тем, как именно будут применяться созданные ими технологии.

Робототехника в таких условиях оказывается в особенно уязвимом положении. Если текстовые модели и рекомендательные системы можно рассматривать как "цифровой" инструмент, то роботы - это уже физические исполнители, которые могут воздействовать на окружающую среду, людей и инфраструктуру. Вопросы автономии, допустимых сценариев применения силы и человеческого контроля здесь встают особенно остро.

Нынешний спор вокруг OpenAI и Пентагона во многом повторяет дискуссии, которые велись несколько лет назад вокруг участия технологических гигантов в оборонных проектах. Тогда часть сотрудников крупных IT-компаний уже выступала против разработки инструментов, способных использоваться для целеуказания, слежки или оптимизации боевых операций. Сегодня, с гораздо более мощными моделями и ростом инвестиций в военный ИИ, ставки стали заметно выше.

Уход топ-менеджера уровня Калиновски может стать сигналом для других специалистов, которые скептически относятся к военному использованию ИИ. Это создаёт для компаний дополнительный риск потери кадров: чем менее прозрачны процессы принятия решений и чем слабее внутренние механизмы этического контроля, тем выше вероятность, что ключевые сотрудники будут выбирать организации с более жёсткими самоограничениями.

Одновременно на этом фоне усиливается конкуренция стратегий среди разработчиков ИИ. Одни компании делают ставку на тесное сотрудничество с государством и участие в оборонных проектах, утверждая, что именно ответственные игроки должны определять стандарты безопасного применения технологий в армии. Другие выстраивают бренд вокруг принципиальных ограничений и отказа от любых сценариев, связанных с оружием и массовым наблюдением, рассчитывая завоевать доверие пользователей и экспертов.

Скандал вокруг сделки OpenAI также обнажил проблему темпов развития регулирования. Технологии ИИ внедряются в критически важные системы быстрее, чем формируются чёткие законодательные рамки. В результате на первый план выходят внутренние кодексы компаний, советы по этике и персональные решения ключевых управленцев - вроде того, которое приняла Калиновски. Это превращает отдельные уходы и публичные заявления в важный инструмент влияния на курс индустрии.

Для конечных пользователей вся эта история - ещё одно напоминание о том, что выбор сервисов и приложений уже давно стал политическим и этическим жестом. Решение удалить одно приложение и перейти на другое, поддержать или бойкотировать компанию, сотрудничавшую с военными, влияет не только на установку в смартфоне, но и на рыночные сигналы, которые получают создатели ИИ.

В ближайшие месяцы можно ожидать, что OpenAI будет активнее разъяснять параметры соглашения с Пентагоном и подчёркивать существующие ограничения. В противном случае компания рискует столкнуться не только с дальнейшими репутационными потерями, но и с внутренним напряжением среди сотрудников, которые не готовы мириться с неясностью в таких принципиальных вопросах. В то же время история с Калиновски уже стала наглядным примером того, как этические разногласия по поводу военного применения ИИ способны менять карьерные траектории и стратегию целых компаний.

Прокрутить вверх