Этика ИИ

Anthropic и Пентагон разошлись во мнениях из-за ограничений Claude
Переговоры Anthropic с министерством обороны США зашли в тупик. Стартап настаивает на жестких этических ограничениях для использования своей

Meta ограничила использование OpenClaw из-за опасений безопасности
Эксперты по безопасности призывают к осторожности с новым ИИ-инструментом OpenClaw, известным своей непредсказуемостью.

Миф о полной приватности: почему менеджеры паролей уязвимы
Обещания разработчиков о невозможности доступа к вашим хранилищам могут оказаться ложными. Взлом серверов компании ставит под угрозу безопас

В Калифорнии создан департамент по надзору за ИИ для расследования деятельности xAI
Генеральный прокурор Калифорнии инициировал проверку компании Илона Маска из-за генерации неприемлемого контента нейросетью Grok и создал но

Отчёт об ответственном ИИ 2026: главные достижения и вызовы безопасности
Опубликован глобальный отчёт о прогрессе в области ответственного ИИ за 2026 год. Узнайте о новых стандартах безопасности, прозрачности и эт

The Guardian запускает масштабное исследование влияния ИИ на рабочие места
Издание The Guardian анонсировало годовой проект Reworked. Журналисты изучат, как алгоритмы меняют жизнь обычных работников, а не только дох

Anthropic и Пентагон разошлись во взглядах на военную этику ИИ
Переговоры о продлении контракта зашли в тупик из-за требований Anthropic ограничить использование Claude в слежке и автономном оружии. Воен

Европарламент запретил ИИ на устройствах депутатов из-за угроз безопасности
Депутаты ЕС больше не могут использовать встроенные функции ИИ на рабочих гаджетах. Власти опасаются утечки секретных данных на серверы амер

OpenAI усиливает защиту ChatGPT с помощью новых функций безопасности
OpenAI внедряет инструменты для борьбы со злоупотреблениями: режим блокировки и систему оценки рисков. Новые функции направлены на защиту да

Anthropic и Пентагон: разногласия по безопасности Claude
Переговоры Anthropic с Пентагоном зашли в тупик из-за опасений компании по поводу использования Claude.

Anthropic требует от Пентагона ограничить использование ИИ Claude
Anthropic отказывается продлевать контракт с Пентагоном без гарантий безопасности. Компания требует запретить использование Claude для слежк

Пентагон угрожает Anthropic санкциями из-за запрета на военное использование ИИ
Минобороны США может признать Anthropic угрозой безопасности из-за отказа компании разрешить использование модели Claude для слежки и автоно

Искусственный интеллект как инструмент расширения человеческих возможностей
Исследуем концепцию расширения человеческого потенциала с помощью ИИ. Узнайте, как технологии помогают преодолеть разрыв в компетенциях и об

Битва за природу: как расширение ИИ угрожает британским фермам
Жители Поттерс-Бар защищают «зеленый пояс» Лондона от строительства дата-центров. Глобальная гонка вооружений в сфере ИИ сталкивается с инте

Как взломать «душу» ИИ-агента: критическая уязвимость в OpenClaw
Исследователи обнаружили способ перехвата намерений автономных агентов через OpenClaw. Уязвимость позволяет злоумышленникам получить доступ

Тревога в Кремниевой долине: ИИ-лидеры ожидают фундаментальный сдвиг в 2026 году
Пока мир спорит о возможностях чат-ботов, инсайдеры индустрии предупреждают о начале эры стократной производительности и рекурсивного самосо

Моди использует саммит по ИИ для подтверждения глобальных амбиций Индии
На международном саммите Нарендра Моди представил Индию как нового лидера в области ИИ, стремясь преодолеть последствия сложного года для эк

Ирландия расследует создание сексуализированных изображений нейросетью Grok в соцсети X
Ирландский регулятор данных начал проверку платформы X. Поводом стали жалобы на создание и распространение неприемлемого контента с помощью

Ирландия начала расследование против чат-бота Grok за создание порнографии
Регулятор данных Ирландии проверяет, нарушает ли ИИ-инструмент Илона Маска законы ЕС при генерации откровенного контента и обработке личных

Закат романтизма в ИИ: массовые увольнения и реклама в ChatGPT
Февраль 2026 года стал точкой невозврата для индустрии генеративного ИИ. Уход ключевых разработчиков и внедрение рекламы в ChatGPT сигнализи

Кир Стармер объявил войну ИИ-ботам ради защиты детей
Премьер-министр Великобритании ужесточает правила для ИИ и соцсетей после скандала с раздевающими ботами. Новые ограничения могут вступить в

Охота на хакеров и будущее ИИ-вокала для музыкантов
История о том, как исследователь безопасности ответил на угрозы хакеров, и как технологии ИИ меняют правила игры в музыкальной индустрии чер

Пентагон планирует разорвать контракт с Anthropic из-за ограничений ИИ
Министерство обороны США может признать разработчика Claude угрозой безопасности из-за отказа компании адаптировать свои модели под нужды во

Прогнозы появления сверхразума и спасительный «человеческий фактор» в эпоху ИИ
Разбираем свежий выпуск Import AI: когда ждать появления сверхразума, как нейросети решают сложнейшие математические задачи и почему люди вс

Индийский саммит по ИИ собрал лидеров OpenAI, Nvidia и Google
В Индии проходит четырехдневный саммит по ИИ с участием крупнейших техгигантов и глав государств. Обсуждаются ключевые вызовы и будущее инду

ByteDance ужесточит правила генерации видео после скандала в Голливуде
Владелец TikTok внедрит новые фильтры в нейросеть Seedance 2.0. Причиной стали фейковые видео с голливудскими звездами и персонажами Disney.

Глава Anthropic Дарио Амодеи раскритиковал Nvidia в Давосе
Руководитель одного из ведущих ИИ-стартапов выступил против поставок американских чипов в Китай, несмотря на инвестиции от Nvidia.

OpenAI обещает оплачивать счета за энергию и экономить воду
Компания берет на себя расходы на модернизацию электросетей и сокращает потребление ресурсов, чтобы не обременять местных жителей.

Anthropic обновила «конституцию» Claude для предотвращения экзистенциальных угроз
Anthropic представила новый 57-страничный документ, определяющий этический облик и «душу» нейросети Claude для безопасного взаимодействия с

Миф об AGI: почему универсальный сверхинтеллект остается недостижимой мечтой
Пока техногиганты обещают скорое появление сверхразума, эксперты находят фундаментальные преграды на пути к AGI. Разбираемся, почему концепц