MIT Technology Review→ оригинал

Китайские IT-компании обязывают сотрудников создавать AI-копии самих себя

Китайские работодатели обязывают технических специалистов обучать AI-агентов, которые смогут их заменить. В начале апреля на GitHub появился проект Colleague Sk

Китайские IT-компании обязывают сотрудников создавать AI-копии самих себя
Источник: MIT Technology Review. Коллаж: Hamidun News.

Китайские технологические компании перешли черту, о которой раньше говорили лишь в теории: сотрудников инженерных отделов напрямую просят обучать AI-агентов, которые смогут выполнять их работу. Это уже не абстрактная угроза автоматизации — это прямое корпоративное задание, которое ставит работника в принципиально новое положение. В начале апреля 2026 года на GitHub появился проект Colleague Skill.

Его авторы описывали инструмент просто: он позволяет «дистиллировать» навыки и черты личности коллег, чтобы создать их цифровой двойник. Фактически — обучить AI воспроизводить профессиональное поведение конкретного человека: его стиль принятия решений, паттерны коммуникации, рабочие эвристики. Проект немедленно привлёк внимание в китайском технологическом сообществе и запустил волну публичных дискуссий, которые MIT Technology Review назвал «болезненным самоанализом».

Что примечательно: эта волна прокатилась не среди скептиков технологии, а среди её главных сторонников. Китайские разработчики и инженеры в целом входили в число наиболее лояльных к AI — они активно экспериментировали с новыми инструментами, первыми внедряли их в рабочие процессы, публично пропагандировали возможности систем. И вот теперь те же люди оказались в ситуации, когда их попросили стать архитекторами собственной замены.

Именно этот разрыв между убеждениями и реальностью вызвал такой резонанс. Ситуация обнажает принципиальное противоречие в том, как компании преподносят AI-трансформацию. Нарратив «AI — это инструмент, который делает вас эффективнее» резко расходится с реальностью корпоративного задания «обучи агента, который будет работать вместо тебя».

Разница не косметическая — она меняет само положение сотрудника. Из пользователя технологии человек превращается в её объект: источник данных, из которого извлекают ценность, а не партнёра по внедрению. Похожие сигналы поступают из других секторов Азии.

Компании в области разработки ПО, контент-производства и технической поддержки всё активнее тестируют схемы, где ключевая задача сотрудника на определённом этапе — «выгрузить» свои знания в систему. После этого агент берёт на себя обслуживание процессов. Это не всегда означает немедленные увольнения: часть работодателей позиционирует такой подход как масштабирование возможностей.

Но сотрудники понимают, что их роль в этой модели — конечная. Проект Colleague Skill сделал невидимое видимым. Прежде аналогичные процессы шли неформально: компании анализировали рабочие данные, логировали действия сотрудников, изучали паттерны принятия решений.

Теперь речь идёт об открытом, задокументированном запросе: опиши свои решения, систематизируй эвристики, помоги построить свою цифровую копию. Такая прозрачность парадоксально тревожнее скрытого сбора данных — она устраняет возможность сохранять иллюзии. Возникает и этический вопрос, который пока почти не обсуждается публично.

Имеет ли работодатель право не просто требовать результатов труда, но и обязывать сотрудника систематически передавать саму способность их производить? В трудовом праве большинства стран нет ответа на этот вопрос. Это принципиально новая форма отчуждения — не продукта труда, а когнитивного капитала как такового.

Для рынка труда в технологическом секторе это меняет базовое уравнение ценности. Традиционно неявные знания специалиста — накопленный опыт, интуиция, понимание контекста и нюансов — считались трудновоспроизводимыми. Именно это делало квалифицированного сотрудника незаменимым.

Если эти знания теперь можно систематически извлечь и масштабировать через агента, защитный барьер исчезает. Реакция китайского технологического сообщества показала: граница, за которой энтузиазм по поводу AI превращается в экзистенциальную тревогу, оказалась значительно тоньше, чем предполагалось. Это важный сигнал для всей индустрии: темп автоматизации достиг точки, где абстрактные нарративы о «переквалификации» и «новых ролях» перестают работать как успокоение.

Следующий вопрос — не «заменит ли AI людей», а «кто несёт ответственность за процесс замены».

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…