Ataque à casa do CEO da OpenAI intensifica temores de que protesto contra IA se torne violento
Um ataque à casa de Sam Altman e a subsequente tentativa de incêndio na sede da OpenAI sinalizam um novo ponto de inflexão: o conflito em torno da IA está saind

Нападение на дом главы OpenAI стало моментом, когда спор об искусственном интеллекте перестал выглядеть только как конфликт мнений в интернете. После инцидента в Сан-Франциско вопрос звучит жёстче: может ли растущее недовольство ИИ перейти от критики технологий к физическому насилию против людей и инфраструктуры? По версии следствия, ранним утром 10 апреля 2026 года 20-летний Дэниел Морено-Гама бросил коктейль Молотова в дом Сэма Альтмана в Сан-Франциско.
Огонь повредил внешние ворота, но никто не пострадал. Менее чем через час тот же человек, как утверждают власти, оказался у штаб-квартиры OpenAI примерно в пяти километрах от дома Альтмана, попытался разбить стеклянные двери стулом и, по материалам дела, угрожал сжечь здание и убить тех, кто находится внутри. При задержании у него нашли канистру с керосином, зажигалку и документ с анти-ИИ тезисами.
Сейчас Морено-Гама вменяют сразу несколько обвинений на уровне штата и федеральных властей. В Калифорнии речь идёт, в частности, о двух эпизодах покушения на убийство и попытке поджога, а отдельное слушание по предъявлению обвинений назначено на 5 мая 2026 года. Следователи считают, что атака была не спонтанной: по их версии, подозреваемый приехал из Техаса именно для того, чтобы добраться до Альтмана и затем атаковать офис компании.
В материалах дела также говорится о списке руководителей и инвесторов ИИ-компаний, который якобы был при нём в момент ареста. При этом защита и семья подозреваемого настаивают на другом объяснении. Они говорят, что молодой человек переживал тяжёлый психический кризис, раньше не имел судимостей и нуждался в лечении, а не в политической интерпретации его поступков.
Этот нюанс важен: сам эпизод читается одновременно как история о радикализации вокруг ИИ и как история о человеке в остром психическом состоянии. Но даже если в конкретном случае мотивы были смешанными, сам факт нападения уже стал сигналом для всей отрасли. Причина резонанса в том, что недовольство ИИ давно вышло за пределы узкого круга исследователей и технополитических споров.
Критика идёт сразу с нескольких сторон: одни боятся вытеснения людей с работы, другие — непрозрачного использования данных, третьи — роста энергопотребления и экспансии дата-центров, четвёртые — концентрации власти в руках нескольких технологических компаний. На этом фоне в сети легко приживаются более жёсткие нарративы, где руководителей ИИ-бизнеса начинают воспринимать не как спорных предпринимателей, а как персональных виновников будущих бед. Именно такой сдвиг — от критики систем к демонизации конкретных фигур — и делает риторику опасной.
Важно и то, что даже радикально настроенные анти-ИИ сообщества публично дистанцируются от насилия. Организации, выступающие за замедление или ограничение развития ИИ, осудили атаку и заявили, что не поддерживают подобные методы. Это показывает: между политическим сопротивлением технологии и прямым насилием всё ещё есть граница.
Но после истории с OpenAI вопрос уже не теоретический. Если общественное недоверие к ИИ продолжит расти, а сами компании будут расширять влияние быстрее, чем объяснять последствия своей работы, такие эпизоды могут перестать восприниматься как исключение. Главный вывод неприятный для всей индустрии: ИИ-компаниям теперь нужно думать не только о безопасности моделей, но и о физической безопасности людей, офисов и объектов.
Для общества это тоже поворотный момент. Спор об искусственном интеллекте становится жёстче, персональнее и эмоциональнее. И если его участники не смогут вернуть разговор в плоскость правил, ответственности и проверяемых фактов, граница между протестом и насилием будет размываться всё сильнее.