Черный ящик ИИ: зачем алгоритмам объяснять свои решения

Почему к решениям ИИ предъявляют требования выше, чем к людям, где пределы текущих языковых моделей и почему прорыв ждут не от новых данных, а от умения моделей «думать» и объяснять свои выводы — в программе «Технологии и тренды»

В этой статье

• [00:04] Врач-робот и доверие к решениям ИИ
• [01:19] Понимает ли нейросеть то, что говорит
• [02:53] Почему к ИИ требования выше, чем к людям
• [06:08] Объяснимый ИИ: что искать внутри модели
• [08:24] Физический мир и перспективы VLA-моделей
• [09:45] От масштабирования данных к времени размышления
• [12:37] Как и с чем работает T-банк AI Research

Современный искусственный интеллект во многом работает по принципу «черного ящика»: даже разработчики не всегда могут логически объяснить, почему модель пришла именно к такому ответу. Ведущие программы «Технологии и тренды» Аркадий Глушенков и Иван Звягин отмечают, что ИИ уже участвует в принятии критически важных решений в медицине и финансах, хотя в основе его работы по-прежнему лежит статистический выбор наиболее вероятных последовательностей.

Руководитель лаборатории «Т-Банк AI Research» Даниил Гаврилов в эфире Радио РБК подчеркнул важность развития «объяснимого ИИ». По его словам, такая работа предполагает анализ того, как концепции проходят через вычислительные слои нейросети и каким образом формируется итоговый ответ модели.

Отдельным направлением становятся VLA-модели, способные учитывать физический опыт — например, представления о гравитации и сопротивлении материалов, необходимые для управления роботами. Как отметил Гаврилов, в развитии ИИ сейчас меняется сама логика масштабирования: вместо простого наращивания объемов данных акцент смещается на время размышления модели — inference time scaling. Такой подход усиливает дедуктивные способности алгоритмов и открывает путь к абдукции, то есть к умению формулировать гипотезы.

По оценке эксперта, это создает предпосылки для использования ИИ в автоматизации научного прогресса, включая поиск ответов на вопросы, которые еще не были поставлены. При этом для прорывных результатов, сопоставимых по значимости с архитектурой Transformer, не всегда требуются ресурсы уровня OpenAI: многое зависит от точного фокуса на конкретных научных задачах.