Цукерберг создаёт собственного AI-клона для встреч с сотрудниками
Meta тренирует AI-аватар Марка Цукерберга — на его голосе, внешности и публичных высказываниях. Цель: сотрудники смогут «взаимодействовать» с основателем без ег

Meta разрабатывает AI-клона Марка Цукерберга, который сможет общаться с сотрудниками компании и давать им обратную связь — вместо реального CEO. Об этом сообщает Financial Times со ссылкой на источники внутри компании. По данным издания, модель обучается на изображениях и голосе Цукерберга, его манере речи, интонациях и публичных высказываниях.
Задача — создать аватар, с которым сотрудники «чувствовали бы более тесную связь с основателем». Фактически это попытка масштабировать присутствие одного человека на всю многотысячную организацию без его физического участия. Meta уже давно экспериментирует с AI-персонами.
В 2024 году компания показала живую демонстрацию того, как может выглядеть цифровой аватар автора контента. Если тест с клоном самого Цукерберга пройдёт успешно, технологию планируется открыть для создателей контента — они смогут создавать собственные AI-двойники для взаимодействия с аудиторией. Эксперимент вписывается в более широкую стратегию Meta в области AI-агентов.
Компания активно инвестирует в разработку персонализированных AI-ассистентов и уже интегрировала AI-функции в Instagram, WhatsApp и Facebook. Цифровой двойник CEO — логичное продолжение этого курса, хотя и поднимает очевидные вопросы о доверии, аутентичности и корпоративной коммуникации. Подобные прецеденты уже существуют: ряд руководителей крупных компаний использует AI для генерации текстов и ответов на письма.
Но интерактивный голосовой и визуальный аватар, способный в реальном времени реагировать на вопросы — качественно иной уровень. Граница между «инструментом делегирования» и «подменой личности» здесь размыта. Если технология выйдет за пределы Meta и станет доступна обычным пользователям, это может кардинально изменить то, как публичные люди — от блогеров до политиков — выстраивают отношения со своей аудиторией.
Вопрос в том, захотят ли люди общаться с копией, зная, что перед ними не оригинал.