الهجوم على منزل الرئيس التنفيذي لـ OpenAI يشدد المخاوف من تحول الاحتجاج ضد الذكاء الاصطناعي إلى عنف
يمثل الهجوم على منزل سام ألتمان والمحاولة اللاحقة لحرق مقر OpenAI نقطة تحول جديدة: يتجاوز النزاع حول الذكاء الاصطناعي النقاشات على الإنترنت. يواجه المشتبه به في

Нападение на дом главы OpenAI стало моментом, когда спор об искусственном интеллекте перестал выглядеть только как конфликт мнений в интернете. После инцидента в Сан-Франциско вопрос звучит жёстче: может ли растущее недовольство ИИ перейти от критики технологий к физическому насилию против людей и инфраструктуры? По версии следствия, ранним утром 10 апреля 2026 года 20-летний Дэниел Морено-Гама бросил коктейль Молотова в дом Сэма Альтмана в Сан-Франциско.
Огонь повредил внешние ворота, но никто не пострадал. Менее чем через час тот же человек, как утверждают власти, оказался у штаб-квартиры OpenAI примерно в пяти километрах от дома Альтмана, попытался разбить стеклянные двери стулом и, по материалам дела, угрожал сжечь здание и убить тех, кто находится внутри. При задержании у него нашли канистру с керосином, зажигалку и документ с анти-ИИ тезисами.
Сейчас Морено-Гама вменяют сразу несколько обвинений на уровне штата и федеральных властей. В Калифорнии речь идёт, в частности, о двух эпизодах покушения на убийство и попытке поджога, а отдельное слушание по предъявлению обвинений назначено на 5 мая 2026 года. Следователи считают, что атака была не спонтанной: по их версии, подозреваемый приехал из Техаса именно для того, чтобы добраться до Альтмана и затем атаковать офис компании.
В материалах дела также говорится о списке руководителей и инвесторов ИИ-компаний, который якобы был при нём в момент ареста. При этом защита и семья подозреваемого настаивают на другом объяснении. Они говорят, что молодой человек переживал тяжёлый психический кризис, раньше не имел судимостей и нуждался в лечении, а не в политической интерпретации его поступков.
Этот нюанс важен: сам эпизод читается одновременно как история о радикализации вокруг ИИ и как история о человеке в остром психическом состоянии. Но даже если в конкретном случае мотивы были смешанными, сам факт нападения уже стал сигналом для всей отрасли. Причина резонанса в том, что недовольство ИИ давно вышло за пределы узкого круга исследователей и технополитических споров.
Критика идёт сразу с нескольких сторон: одни боятся вытеснения людей с работы, другие — непрозрачного использования данных, третьи — роста энергопотребления и экспансии дата-центров, четвёртые — концентрации власти в руках нескольких технологических компаний. На этом фоне в сети легко приживаются более жёсткие нарративы, где руководителей ИИ-бизнеса начинают воспринимать не как спорных предпринимателей, а как персональных виновников будущих бед. Именно такой сдвиг — от критики систем к демонизации конкретных фигур — и делает риторику опасной.
Важно и то, что даже радикально настроенные анти-ИИ сообщества публично дистанцируются от насилия. Организации, выступающие за замедление или ограничение развития ИИ, осудили атаку и заявили, что не поддерживают подобные методы. Это показывает: между политическим сопротивлением технологии и прямым насилием всё ещё есть граница.
Но после истории с OpenAI вопрос уже не теоретический. Если общественное недоверие к ИИ продолжит расти, а сами компании будут расширять влияние быстрее, чем объяснять последствия своей работы, такие эпизоды могут перестать восприниматься как исключение. Главный вывод неприятный для всей индустрии: ИИ-компаниям теперь нужно думать не только о безопасности моделей, но и о физической безопасности людей, офисов и объектов.
Для общества это тоже поворотный момент. Спор об искусственном интеллекте становится жёстче, персональнее и эмоциональнее. И если его участники не смогут вернуть разговор в плоскость правил, ответственности и проверяемых фактов, граница между протестом и насилием будет размываться всё сильнее.