Этика ИИ

سعر الذكاء: كيف يغير مركز البيانات الضخم لإيلون ماسك بيئة ممفيس
الذكاء الاصطناعي رائحته السناج والأسفلت. نكشف كيف أن مركز البيانات الضخم لشركة xAI في ممفيس، الذي يتطلب طاقة مدينة كبرى كاملة، يفضح التكلفة

خمس نماذج ذكاء اصطناعي تحاول خداع صحفي: التطور المرعب للاحتيال بالذكاء الاصطناعي
بينما كانت الصناعة تستعد لاختراق الذكاء الاصطناعي الأنظمة المعقدة، تعلمت الشبكات العصبية اختراق النفس البشرية. أصبحت الهندسة الاجتماعية السل

أعلنت OpenAI عن Privacy Filter: شبكة عصبية مفتوحة لحماية البيانات الشخصية
أطلقت OpenAI نموذجًا مفتوحًا يكتشف ويحذف البيانات الشخصية من النصوص بدقة قياسية. يزيل هذا الحل الحاجز الرئيسي لتنفيذ الذكاء الاصطناعي بأمان

OpenAI تعرض 25 ألف دولار للعثور على ثغرات في حماية GPT-5.5 البيولوجية
تطلق OpenAI برنامج بحث عن الثغرات لـ GPT-5.5، مع التركيز على المخاطر الوجودية في البيولوجيا. حتى 25 ألف دولار لاختراقات جيلبريك عامة.

Как ИИ-агенты защищаются от инъекций подсказок
ChatGPT научился противостоять манипуляциям: как ИИ-агенты блокируют опасные команды и защищают данные пользователей.

ИИ-агент перешел на личности: как бот начал шантажировать разработчика
Инцидент с MJ Rathbun показал новую грань рисков автономных систем: от критики кода до целенаправленного онлайн-преследования и шантажа мейн

Темная сторона ИИ: зачем корпорации на самом деле создают нейросети
Инструмент продуктивности или троянский конь? Разбираемся, как ведущие ИИ-компании используют технологии для создания эксплуататорской корпо

Фейковый ИИ-контент о конфликте в Иране наводнил платформу X
Встроенная нейросеть Grok от соцсети X не справляется с фактчекингом видео с Ближнего Востока и даже генерирует собственные фейковые изображ

Anthropic оценила риски санкций Пентагона
Anthropic в судебных документах предупреждает: попадание в список неблагонадёжных поставщиков Пентагона может обойтись компании в миллиарды

Преподаватели борются за мышление без ИИ
Университетские преподаватели ищут способы вернуть студентам офлайн-обучение и самостоятельное мышление на фоне растущей зависимости от гене

Anthropic подала в суд на Пентагон из-за санкций
ИИ-компания Anthropic оспаривает решение Министерства обороны США, назвавшего её угрозой цепочке поставок — первый подобный случай против ам

Фантомные инвестиции: как Британия строит ИИ на обещаниях
Расследование The Guardian вскрыло схему «фиктивных инвестиций» в ИИ-инфраструктуру Великобритании: супerkомпьютер оказался строительным заб

Пентагон против Anthropic: кто установит правила для военного ИИ?
Противостояние между Anthropic и Пентагоном из-за ограничений на использование нейросетей в военных целях переросло в полноценный конфликт.

Рубикон пройден: Уход главы робототехники OpenAI обнажил этический кризис из-за контрактов с Пентагоном
Отказ Anthropic от военных контрактов и готовность OpenAI занять ее место спровоцировали раскол в Кремниевой долине. Разбираемся, как ИИ-гиг

Декларация Pro-Human: Какой путь выберет ИИ после конфликта Пентагона и Anthropic
Новая «Про-человеческая декларация» должна была стать мирной дорожной картой для ИИ. Но её публикация совпала с беспрецедентным противостоян

Вайбкодинг: как AI-ассистенты подтачивают инженерное мышление
ML-инженер с четырёхлетним стажем собрал приложение за несколько дней, не зная ни языка, ни технологий. Но вместе с быстрым результатом приш

Claude Code случайно удалил сайты и базу данных в AWS
Использование ИИ-агентов для управления облачной инфраструктурой привело к потере данных. Разработчик доверил Claude Code доступ к AWS, что

Anthropic против Пентагона: конфликт из-за ИИ Claude меняет правила войны
Спор между ИИ-стартапом и Минобороны США из-за этических ограничений модели Claude стал важным тестом для будущего военных технологий.

Кто виноват в ошибках ИИ-агентов: три модели правовой ответственности
Когда автономный агент совершает ошибку, поиск виновного превращается в юридический квест. Разбираем три сценария ответственности — от прост

Пентагон нанимает экс-директора Uber для урегулирования спора с Anthropic
Министерство обороны США ищет посредников в Кремниевой долине для работы с ИИ-стартапами. В центре внимания — конфликт с Anthropic из-за исп

OpenAI запускает GPT-5.4 с управлением ПК и заключает контракт с Пентагоном
Новые модели OpenAI получили доступ к управлению компьютером, Anthropic признали угрозой нацбезопасности, а Grok предсказывает военные конфл

Microsoft и Google сохранят доступ к Claude для гражданских лиц
Облачные гиганты подтвердили: конфликт Anthropic с властями США не повлияет на доступность нейросети Claude для бизнеса и частных клиентов.

«The AI Doc»: почему новый фильм об ИИ страдает от избыточного хайпа
Разбираемся, почему документальный фильм «The AI Doc» не смог стать объективным взглядом на индустрию, утонув в крайностях между предсказани

Anthropic под угрозой санкций: Пентагон признал компанию риском для безопасности
Министерство обороны США внесло разработчика Claude в список угроз для цепочки поставок. Теперь стартапу грозит изоляция от госконтрактов, а

Google выпустила SpeciesNet — открытую ИИ-модель для защиты дикой природы
Google представила SpeciesNet — модель с открытым исходным кодом, которая помогает экологам по всему миру идентифицировать виды животных по

City Detect привлекает $13 млн на ИИ для безопасности и чистоты городов
Стартап City Detect, использующий компьютерное зрение для борьбы с городским упадком, закрыл раунд Series A на $13 млн. Система уже работает

Диагноз от алгоритма: кто отвечает, когда AI ошибается в медицине
Искусственный интеллект уже ставит диагнозы и назначает лечение. Но когда алгоритм ошибается, пациент остаётся один на один с системой, у ко

Модели рассуждений не могут скрыть свои мысли — и это хорошо
OpenAI представила инструмент CoT-Control и выяснила: модели рассуждений практически не способны контролировать свои цепочки мыслей. Парадок

Почему языковые модели никогда не станут AGI: урок Витгенштейна столетней давности
Австрийский философ Людвиг Витгенштейн сформулировал принцип, который объясняет фундаментальный потолок современных LLM. Разбираемся, почему

Пентагон тестировал модели OpenAI через Microsoft, обходя запрет на военное использование
Источники утверждают, что Министерство обороны США экспериментировало с технологиями OpenAI через облачную платформу Microsoft ещё до того,