Канал, в котором мы говорим про искусственный интеллект простыми словами
Главный редактор и по рекламе: @crimeacs
Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Информация о канале обновлена 21.08.2025.
Канал, в котором мы говорим про искусственный интеллект простыми словами
Главный редактор и по рекламе: @crimeacs
Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Я нажимаю «Запустить проверку» и иду делать кофе.
Агент заходит в мое веб-приложение, заливает CSV, включает оверлеи, пробует экспорт. Где-то зависает спиннер - он не паникует, меняет маршрут и продолжает проверять остальное.
🐶 Я выхожу гулять с собакой. В это время агент собирает улики: скрины, логи и тп. Видит тонкости - «фича включилась, но данных нет» - и помечает это как задачу для другого AI агента.
📬 Возвращаюсь - на экране готовый отчёт:
— 3 проблемы с шагами «ожидал → получил»,
— ссылки на скрины/HAR,
— приоритеты и быстрые фиксы.
Я просто перетягиваю задачи в следующий диалог с Claude Code. Всё. Никаких «не воспроизводится».
🌇 Агент сделал рутину за меня; моё время ушло на решения (и отдых), а не на клики и скриншоты. По ощущениям, экономит по паре часов в день - минимум.
Не магия. Просто внимательный джуниор из кремния, который не устает.
Кстати, я думаю что готов к ограниченной бете, так что если вам есть что предсказывать (еду в кафе, номера в отеле, закупку продуктов в магазин и вообще что угодно) - пишите в комменты, дам доступ!
Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:
🧠 Hot keys
• Shift+Tab
— Planning mode (Claude сначала строит план, потом действует)
• Esc Esc
— «откат» шага диалога
• think / think hard / ultrathink
— явно просим больше reasoning budget
• !bash
— запускаем shell-команды прямо из чата
• @mention
— подкидываем файлы в контекст
• Drag & drop
— кидаем скриншоты/изображения
• Ctrl+B
— запуск Claude Code в фоне
🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
• Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
• Context7 — актуальные доки по популярным SDK и библиотекам
• SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
• Figma MCP — агент читает/проверяет макеты в Figma
📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.
⚡ Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:
# Проектный уровень
mkdir -p ./claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ./claude/commands/optimize.md
# Пользовательский уровень (глобально)
mkdir -p ~/.claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ~/.claude/commands/optimize.md
🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:
Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как tasks/SB01_BUILD_CSV.md
🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.
📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.
Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.
Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
Chat: Как вам GPT 5?
— соревнование, где Everything as code. Решай ML-задачи в стиле Ozon Tech. Призовой фонд — 7 200 000 рублей 🔥
🗓 Регистрация: https://cnrlink.com/ecup25aiforall
💻 Формат участия: онлайн
👥 Команда: от 1 до 5 человек
🎯 Для кого: Data Scientists, ML-специалисты, аналитики данных, дата-инженеры, специалисты Big Data и разработчики, которые интересуются ML/DS.
Что вас ждёт:
🔹 Работа над проектом для миллионов пользователей на основе данных от ведущего e-com в России.
🔹 Призовой фонд — 7 200 000 рублей для девяти сильнейших команд.
🔹 Обмен опытом с экспертами Ozon Tech.
🔹 Эксклюзивный мерч и подарки.
🔹 Питчинг — онлайн или очно на конференции E-CODE. Финалистам Ozon Tech предоставит билеты и оплатит поездку.
Регистрация открыта до 17 августа включительно
#промо
Новая архитектура HRM решает сложные задачи вроде ARC‑AGI и Sudoku‑Extreme имея всего 27 млн параметров и ~1 000 примеров на задачу — без pretraining и chain-of-thought.
🤯 Что это вообще такое?
HRM — это двухуровневая нейросеть:
• H-модуль (медленный): строит стратегию,
• L-модуль (быстрый): реализует её по шагам.
Они итеративно «думают» до тех пор, пока не придут к стабильному решению — внутри одного forward pass, без CoT.
🛠 Как это работает
Модель устроена как диалог двух частей:
Планировщик предлагает стратегию, исполнитель пробует - и цикл повторяется, пока оба не «сходятся» на ответе (fixed-point convergence).
Обучение идёт без раскрутки всех шагов назад - модель учится прямо в точке согласия (implicit gradients).
А встроенный Q‑модуль сам решает, когда «достаточно подумала» и пора отвечать.
📊 Что получилось
• ARC‑AGI: 40.3 % точности — выше многих CoT-моделей.
• Sudoku‑Extreme, Maze‑Hard: 100 % точности, против 0 % у трансформеров.
• Ресурсы: обучение от 2 до 200 GPU-часов — суперэкономично.
⚖️ Почему это важно
HRM показывает: reasoning можно делать не через текст, а внутри модели. Это эффективно по параметрам, быстро в inference и потенциально интерпретируемо.
Но пока всё это работает только на синтетических задачах. Масштабируемость и применимость в реальных кейсах - вопросы на которые только предстоит ответить.
🧩 Итог
HRM — попытка приблизить модели к человеческому мышлению: не просто продолжать текст, а по-настоящему планировать.
Ссылка
🗣️ Верите в latent reasoning?
Или CoT навсегда?
Пишите в комментариях - и поделитесь постом, если было интересно!
Владелец канала не предоставил расширенную статистику, но Вы можете сделать ему запрос на ее получение.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Подтвердите, что вы не робот
Вы выполнили несколько запросов, и прежде чем продолжить, мы ходим убелиться в том, что они не автоматизированные.