Главные новости о том, как бизнес становится цифровым. Собрано роботами redmadrobot.ru
По вопросам/предложениям: @sandreyw
Информация о канале обновлена 02.10.2025.
Главные новости о том, как бизнес становится цифровым. Собрано роботами redmadrobot.ru
По вопросам/предложениям: @sandreyw
Представьте: вы даёте LLM пачку документов и задаёте вопрос. Вместо честного «ответа здесь нет» она соединяет факты с внутренними знаниями и выдаёт убедительный, но ложный результат. В RAG-системах именно это подрывает доверие: LLM выглядит надёжной, но начинает додумывать там, где не стоит.
В новой статье на Habr обсуждаем, как фреймворк Anthropic Circuit Tracing позволяет разложить работу трансформера на графы размышлений и измерять вклад контекста в генерацию. Такой анализ показывает, где модель опирается на данные, а где — придумывает. И да, мы проверили метод на сбалансированном тестовом датасете и получили около 85% точности при определении галлюцинаций.
Подробнее читайте на Habr ↗️
#AI_moment
↗️ red_mad_robot
Вчера на конференции @colabptfm CEO red_mad_robot Илья Самофеев вместе с экспертами «Будь Здоров», «Ростелекома», SberDevices и Яндекса обсудили, как GenAI меняет подходы к медицине и well-being и трансформирует рынок.
По следам дискуссии собрали главные тезисы:
📍 Контекст индустрии
Рынок переходит от платформенно-центричной модели к agentic-first-подходу. Вместо построения экосистем вокруг приложений и маркетплейсов компании начинают разрабатывать сервисы, где взаимодействие осуществляется через автономных AI-агентов. Это меняет архитектуру цифровых продуктов, влияет на цепочки создания ценности и требует пересмотра стратегий клиентского взаимодействия.
Масштаб трансформации сопоставим с мобильной революцией, когда появились новые профессии и рынок развернулся в сторону приложений. Теперь аналогичный передел запускают агентные системы.
📍 AI в здравоохранении
Сегодня это в основном простые чат-боты и ассистенты, которые могут подсказать справочную информацию или направить к врачу. Но в ближайшем будущем могут появиться более сложные сценарии:
• Умная карта здоровья и цифровой анамнез: интеллектуальные архивы, которые помогут врачам быстрее ставить диагнозы и работать с полным контекстом состояния пациента.
• Личный агент здоровья: не отдельное приложение, а встроенный сервис в привычные каналы — банки, маркетплейсы, доставку. Такой агент будет сам анализировать метрики и проактивно предлагать действия.
Например, пользователь заходит в банковское приложение, и встроенный AI-агент предлагает пройти чекап: «Мы получили данные из вашего приложения здоровья, зарезервировали сумму на счёте — используйте её для проверки состояния».
📍 Вызовы
Наряду с возможностями встают вопросы доверия, регулирования и рисков зависимости от AI-помощников. Нужны надёжные guardrails и этические стандарты, чтобы технологии приносили реальную пользу.
AI-агенты в медицине — это не просто эволюция сервисов, а возможный сдвиг от эпизодического лечения к непрерывному и персонализированному управлению здоровьем. Но тема остаётся дискуссионной: неизвестно, какие форматы интеграции действительно приживутся, а какие так и останутся на уровне экспериментов. Пишите, что думаете в комментариях!
#AI_moment #роботайм
↗️ red_mad_robot
На следующей неделе не пишем, а говорим — ведь red_mad_robot выступает сразу на двух конференциях. Одна — про технологии, которые выдерживают реальность. Вторая — про команды, которые работают без микроменеджмента, но с GenAI-инструментами
📍 Микроменеджмент: когда мешает, а когда помогает, 23 сентября
Выступление на конференции BOOST, на котором расскажем, как за полгода пришли к автономности команд на примере запуска банковских проектов
📍 Верю-не-верю: IT-будущее находится под вопросом? 25 сентября
Пленарная сессия Orion Digital Race с лидерами индустрии — о том, какие технологии действительно работают, а какие всё ещё ждут своего часа
↗️ red_mad_robot
подход для развития deep research-агентов. Система строит графы знаний по предметной области, генерирует на их основе сложные вопросы и обучает модели через многошаговое RL. Такой цикл формирует у агентов способность к «длинным горизонтам» поиска и анализа.
DeepDive использует особый приём генерации данных — blurry entities. Это метод усложнения обучающих выборок: при построении вопросов на основе графа знаний некоторые атрибуты сущностей намеренно «размываются» (обобщаются или скрываются), чтобы смоделировать реальные ситуации, когда информация неполна или неочевидна.
На этапе инференса применяется test-time scaling: модели разрешают больше вызовов инструментов и запускают несколько параллельных траекторий рассуждений. Такой подход позволяет выбрать оптимальный путь поиска и существенно повысить точность. В результате DeepDive-32B заняла лидирующую позицию среди open-source решений для browsing-агентов и установила SOTA на бенчмарке BrowseComp (~14,8%).
🟥 Google запустил Agent Payments Protocol (AP2): открытый стандарт для безопасных платежей от имени пользователей. Он основан на криптографически подписанных цифровых мандатах, которые фиксируют намерение пользователя, рамки действий и ограничения для агента. AP2 поддерживает как мгновенные транзакции с подтверждением пользователя, так и делегированные сценарии — например, покупку билетов в момент начала продаж.
Технически протокол использует два типа мандатов: Intent Mandate (фиксирует намерение и условия) и Cart Mandate (конкретная покупка). Это позволяет агентам работать как в присутствии пользователя, так и автономно, при заранее заданных правилах. В проекте участвуют более 60 компаний, включая Mastercard, PayPal, Revolut и Coinbase.
🟥Google DeepMind исследует, как управлять развитием AI-агентов в виртуальной агентной экономике. Они вводят идею sandbox economy — контролируемой среды, где агенты могут взаимодействовать, торговать, координироваться и распределять ресурсы без риска для реальных рынков.
Среди предложенных механизмов: рынки и аукционы для распределения ресурсов и разрешения предпочтений между агентами, системы репутации и проверяемых удостоверений для надёжности и доверия, смарт-контракты и другие технические и институциональные средства для прозрачности и ответственности.
Авторы подчёркивают: чтобы масштабировать такие среды безопасно, нужны гибридные меры регулирования — сочетание алгоритмов, институциональных правил и внешнего контроля, особенно когда агентная экономика взаимодействует с человеческой.
Также на неделе:
• Inclusion AI выпустила MoE-модель с 100B параметрами, из которых активны 6,1B
• OpenAI представила версию GPT-5 для кодинга и агентных сценариев
• Исследователи показали mem-agent на базе Qwen3-4B-Thinking-2507, где знания хранятся в Markdown-файлах и доступны для ручного редактирования
• Luma AI анонсировала reasoning-модель для генерации видео в HDR
• Google обновил Chrome: в браузере появился чат-бот Gemini и новые AI-функции для работы с вкладками, историей и безопасностью
• ElevenLabs показали видеоредактор с функциями AI для работы с аудио
ндвотчинг
↗️ red_mad_robot" target="_blank" rel="nofollow">
📍 AI меняет правила игры на рынке труда
Большой PDF с данными и выводами: кто теряет работу, кто становится незаменим, какие навыки останутся с нами в эпоху агентов и как бизнесу адаптироваться уже сейчас
📍 Запустили Telegram-бота для обращений
Теперь связаться с нами можно напрямую: вопрос, предложение, идея — всё попадёт в нужный канал, а ответ придёт прямо в чат
📍 GenAI-сессии для бизнеса
Помогаем командам понять, как именно применять технологии, чтобы был измеримый результат
📍 Что и кто движет red_mad_robot?
Попали в книгу «Герои бизнеса» и рассказали почему GenAI и BCI — это следующий уровень игры (и ещё много чего рассказали, конечно же)
📍 Как формируется новая потребительская вертикаль AI
Статья на Habr о том, как AI переходит от эффективности к эмоциям. Почему доверие, сценарии и аутентичность важнее модели, и какие продукты из этого уже выросли
↗️ red_mad_robot
фреймворк, который чередует процесс дообучения «модели-студента» на данных «моделей-учителей» и объединения весов получившихся моделей. Метод снижает риск катастрофического забывания и даже помогает улучшать самих учителей.
Почему это важно: MoT позволяет создавать более точных и устойчивых студентов при минимуме данных. Он не только повышает потолок качества и снижает переобучение, но и упрощает обучение reasoning-моделей, делая его масштабируемым.
🟥 Исследователи представили SGR (Schema-Guided Reasoning) и SGR Deep Research:
• SGR делает работу агентов прозрачной и предсказуемой. Вместо хаотичного выбора инструментов модель следует фиксированной схеме «Анализ → Поиск → Обработка → Вывод», что повышает эффективность — особенно для малых моделей. Например, Qwen3-4B с Function Calling показала 2%, а с SGR достигает 85-90%.
• SGR Deep Research — реализация подхода для поиска и анализа информации в интернете. Система использует двухфазную архитектуру, поддерживает лёгкие LLM, совместима с OpenAI API и позволяет агентам продолжать работу через уникальные ID.
Почему это важно: SGR делает поведение агентов прозрачным и воспроизводимым, что упрощает тестирование и контроль качества. SGR Deep Research позволяет использовать даже малые модели как полноценных агентов и потенциально снижает стоимость внедрения, открывая путь к масштабированию корпоративных AI-систем.
🟥 Thinking Machines Lab объяснила, почему ChatGPT может давать разные ответы даже при температуре 0. Расхождения возникают не из-за случайности или параллельных вычислений на GPU, а по причине группирования запросов. Сервер обрабатывает пачки запросов одновременно, и их размер влияет на результат. Таким образом, на один и тот же вопрос ChatGPT может давать разные ответы в зависимости от загрузки.
Почему это важно: недетерминизм мешает использовать LLM в чувствительных сценариях — при разных ответах на один и тот же вопрос усложняется автоматизация, тестирование и верификация. Однако исследование показывает, что проблему можно решить инженерными методами. Это создаёт условия для более стабильных и управляемых AI-систем без потери скорости или качества.
🟥 Meta SI Labs (запрещена в РФ) показала REFRAG: фреймворк, который позволяет ускорять LLM в 31 раз и обрабатывать в 16 раз больше контекста без потери точности. Текст разбивается на блоки по 16 токенов и сжимается в векторы (chunk embeddings), после чего специальная reward-модель отбирает значимые фрагменты. Важные блоки передаются напрямую в LLM, остальные — в виде эмбеддингов, а итоговый ответ генерируется уже на этом сжатом вводе.
Почему это важно: REFRAG открывает путь к ускоренному инференсу без потери качества — его уже называют потенциальной революцией в корпоративном AI. Системы смогут обрабатывать длинные документы и диалоги, оставаясь быстрыми и точными. Но подход требует не только основной модели, но и как минимум двух вспомогательных, а также обучения reward-модели. Это повышает порог входа, и бизнесу придётся оценивать соотношение выигрыша в скорости и затрат на инфраструктуру, данные и интеграцию.
Также на неделе:
• Meta (запрещена в РФ) продемонстрировала новый способ ускорения инференса LLM
• Meta SI Labs (запрещена в РФ) представила RL-подход, в котором модель обучается через самоигру и осваивает сложные стратегии
• Alibaba выпустила аудиомодель с распознаванием речи и поддержкой русского языка
• Tencent показала RL-метод, развивающий у LLM способность к параллельному мышлению
• Google Research анонсировал систему для генерации научного кода через LLM и Tree Search
• Anthropic научил Claude создавать таблицы и презентации
• ByteDance запустил генератор изображений, похожий на Nano Banana
• ByteDance продемонстрировал модульный RL-фреймворк для обучения агентов многошаговому принятию решений
ндвотчинг
↗️ red_mad_robotget="_blank" rel="nofollow">
От первых экспериментов с «оцифровкой дружбы» до приложений с миллионами пользователей — разбираемся в новой статье на Habr, как эволюционировал сегмент AI-компаньонов.
📍 Какие механики формируют доверие и удержание пользователя
📍 Как складываются повседневные сценарии
📍 Почему эмоциональная аутентичность становится ядром ценности
📍 Какие бизнес-модели оказываются устойчивыми и как избежать подрыва доверия
Кому будет полезно: всем, кто запускает или оценивает consumer-AI-продукты и хочет видеть целостную картину для принятия стратегических и продуктовых решений. Ну, и, если честно, всем, кому интересно, как AI выходит за рамки эффективности и формирует наши новые привычки.
Читайте статью!
#AI_moment #роботайм
↗️red_mad_robot
Владелец канала не предоставил расширенную статистику, но Вы можете сделать ему запрос на ее получение.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Подтвердите, что вы не робот
Вы выполнили несколько запросов, и прежде чем продолжить, мы ходим убелиться в том, что они не автоматизированные.