CollectivIQ хочет сделать ИИ надёжнее, опросив сразу 14 моделей
Стартап CollectivIQ предлагает новый подход к достоверности ИИ-ответов: вместо одного чат-бота система одновременно опрашивает до 14 моделей, включая ChatGPT, G

Проблема галлюцинаций языковых моделей остаётся одним из главных барьеров на пути массового доверия к искусственному интеллекту. Каждый, кто хоть раз получал от ChatGPT уверенно изложенную, но полностью выдуманную информацию, знает это ощущение: технология впечатляет, но верить ей на слово опасно. Стартап CollectivIQ решил атаковать эту проблему с неожиданной стороны — не улучшая одну модель, а опрашивая сразу четырнадцать.
Идея, о которой написал TechCrunch, элегантна в своей простоте. CollectivIQ агрегирует ответы от ChatGPT, Gemini, Claude, Grok и до десяти других языковых моделей одновременно. Пользователь вводит запрос один раз и получает панораму ответов, где может сравнить формулировки, выявить точки согласия и, что важнее, заметить расхождения. Если тринадцать из четырнадцати моделей говорят одно, а одна — другое, это мощный сигнал. Если же модели расходятся поровну, это тоже ценная информация: значит, вопрос сложнее, чем кажется, и слепо доверять любому отдельному ответу не стоит.
Чтобы понять, почему этот подход может сработать, стоит вспомнить о феномене, который в теории принятия решений называют «мудростью толпы». Фрэнсис Гальтон ещё в 1906 году обнаружил, что усреднённая оценка большой группы людей оказывается точнее, чем мнение любого отдельного эксперта. CollectivIQ, по сути, переносит этот принцип в мир больших языковых моделей. Каждая из них обучена на разных данных, с разными акцентами и ограничениями. GPT-4o сильна в рассуждениях, Claude — в аккуратности и следовании инструкциям, Gemini — в мультимодальности и работе с актуальной информацией, Grok — в неформальном тоне и доступе к данным из соцсетей. Когда их ответы сводятся воедино, слабости одной модели компенсируются сильными сторонами другой.
Технически реализация такого сервиса ставит несколько серьёзных вопросов. Прежде всего — стоимость. Каждый запрос к коммерческой API обходится в токены, и умножение на четырнадцать превращает копейки в ощутимые суммы. Для обычного пользователя, который спрашивает рецепт борща, это избыточно. Но для профессионалов — юристов, врачей, аналитиков, журналистов, — которым критически важна точность, экономика может сойтись. Второй вопрос — скорость. Параллельные запросы к разным API имеют разное время отклика, и пользователю придётся либо ждать самую медленную модель, либо получать ответы асинхронно, по мере поступления. Третий — интерфейс. Показать четырнадцать ответов так, чтобы человек не утонул в информации, а быстро извлёк суть, — это серьёзная дизайнерская задача.
CollectivIQ появляется не в вакууме. На рынке уже существуют мета-поисковики по ИИ-моделям: Poe от Quora даёт доступ к нескольким моделям в одном интерфейсе, а сервисы вроде TypingMind и OpenRouter позволяют переключаться между провайдерами. Но ни один из них не делает ставку именно на одновременное сравнение как инструмент верификации. CollectivIQ позиционирует мультимодельность не как удобство, а как метод повышения достоверности — и это принципиально другой нарратив. Вместо «выберите лучшую модель» — «не доверяйте ни одной, сравнивайте все».
Есть и более глубокий контекст. Индустрия искусственного интеллекта переживает кризис доверия. Исследования показывают, что пользователи всё чаще скептически относятся к ответам чат-ботов, но при этом продолжают ими пользоваться — просто потому, что альтернатив нет. CollectivIQ предлагает промежуточное решение: не заставляет слепо верить и не требует отказываться от ИИ, а даёт инструмент для критического анализа. В каком-то смысле это возвращение к журналистскому принципу перекрёстной проверки источников, только источниками выступают нейросети.
Главный вопрос — масштабируется ли эта модель. Если крупные провайдеры начнут ограничивать доступ к API для агрегаторов или поднимут цены, бизнес CollectivIQ окажется под угрозой. Кроме того, по мере того как модели становятся всё более похожими друг на друга, обучаясь на пересекающихся датасетах, ценность мультимодельного сравнения может снижаться. Но пока разнообразие подходов сохраняется, идея краудсорсинга среди ИИ выглядит одновременно остроумной и практичной. Возможно, будущее надёжного искусственного интеллекта — это не одна идеальная модель, а хор несовершенных, в котором фальшивая нота сразу слышна.