Лента постов канала Kali Novskaya (@rybolos_channel) https://t.me/rybolos_channel Нейросети, искусство, мысли. Поехали! tg: @rybolos Leading 5 teams in R&D ru https://linkbaza.com/catalog/-1001568817860 Fri, 22 Aug 2025 11:06:45 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Sat, 16 Aug 2025 11:25:13 +0300
Подробнее
12.41 k
]]>
https://linkbaza.com/catalog/-1001568817860 Mon, 11 Aug 2025 12:10:06 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Sun, 10 Aug 2025 15:18:22 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Fri, 08 Aug 2025 13:52:02 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Thu, 07 Aug 2025 20:50:05 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Tue, 05 Aug 2025 20:12:11 +0300
Реально выложили под Apache 2.0

🟣https://huggingface.co/openai/gpt-oss-120b
🟣https://huggingface.co/openai/gpt-oss-20b
Подробнее
11.69 k
]]>
https://linkbaza.com/catalog/-1001568817860 Tue, 05 Aug 2025 20:10:20 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Tue, 05 Aug 2025 19:47:31 +0300
🌸GPT OSS под Apache 2.0 ?! 🌸

Huggingface выложила блог-пост с пустыми (пока?) ссылками на две опенсорсные модели GPT от OpenAI: 120B и 20B

Что нам обещают:
— Всего параметров: 21 млрд и 117 млрд, MoE, с активными параметрами 3.6 млрд и 5.1 млрд соответственно.
— Схема квантизации 4-бит с использованием mxfp4. Как указано, модель 120 млрд параметров помещается на одном GPU с 80 ГБ памяти, а модель 20 млрд — на одном GPU с 16 ГБ памяти.
— Модели reasoning, из модальностей только текст; есть регулирование уровня "усилий" при рассуждениях
— Поддержка следования инструкциям и использования tools.
— Реализации инференса с использованием transformers, vLLM, llama.cpp и ollama.
— Лицензия: Apache 2.0 с небольшой дополнительной политикой использования.

Если это так, то очень круто. Ждём модели.

🟣UPD чтоб вы понимали масштаб, первый раз OpenAI обещали опенсорснуть ChatGPT аж в 2023 году ("Она все равно уже устарела, есть GPT-4"). С тех пор не выкладывали почти ничего.

🟣Блогпост: https://github.com/huggingface/transformers/releases/tag/v4.55.0
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Mon, 04 Aug 2025 14:14:58 +0300
🌸Статьи ACL 2025🌸
#nlp #про_nlp #nlp_papers

На прошлой неделе прошла конференция ACL в Вене, такой Neurips для LLMок, и только 1700 статей были приняты в основной трек, и ещё больше на воркшопы и в сборник Findings.

Про статьи, получившие best paper award, уже написал Илья, а я привожу список интересных статей на мой взгляд:

🟣Агенты

Auto-Arena: Automating LLM Evaluations with Agent Peer Battles and Committee Discussions
HiAgent: Hierarchical Working Memory Management for Solving Long-Horizon Agentic Tasks with Large Language Models
Completing A Systematic Review in Hours instead of Months with Interactive AI Agents
MAPoRL: Multi-Agent Post-Co-Training for Collaborative Large Language Models with Reinforcement Learning
AgentGym: Evaluating and Training Large Language Model-based Agents across Diverse Environments
X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents

🟣LLM для науки

LazyReview A Dataset for Uncovering Lazy Thinking in NLP Peer Reviews
Many Heads Are Better Than One: Improved Scientific Idea Generation by A LLM-Based Multi-Agent System
Towards Effective and Efficient Continual Pre-training of Large Language Models

🟣Бенчмарки

M-RewardBench: Evaluating Reward Models in Multilingual Settings
INVESTORBENCH: A Benchmark for Financial Decision-Making Tasks with LLM-based Agent
ELABORATION: A Comprehensive Benchmark on Human-LLM Competitive Programming
TreeCut: A Synthetic Unanswerable Math Word Problem Dataset for LLM Hallucination Evaluation

🟣Обучение и архитектуры

Tree-of-Evolution: Tree-Structured Instruction Evolution for Code Generation in Large Language Models
Improve Vision Language Model Chain-of-thought Reasoning
Direct Prompt Optimization with Continuous Representations
Position-aware Automatic Circuit Discovery
Pre-training Distillation for Large Language Models: A Design Space Exploration

🟣Длинный контекст

L-CiteEval: A Suite for Evaluating Fidelity of Long-context Models
Self-Taught Agentic Long Context Understanding
LongBench v2: Towards Deeper Understanding and Reasoning on Realistic Long-context Multitasks
LongReward: Improving Long-context Large Language Models with AI Feedback

🟣Обзоры

How to Enable Effective Cooperation Between Humans and NLP Models: A Survey of Principles, Formalizations, and Beyond
A Survey of Post-Training Scaling in Large Language Models

🟣Всякое разное

Revisiting the Test-Time Scaling of o1-like Models: Do they Truly Possess Test-Time Scaling Capabilities?
Jailbreak Large Vision-Language Models Through Multi-Modal Linkage
The Hidden Attention of Mamba Models
HateDay: Insights from a Global Hate Speech Dataset Representative of a Day on Twitter
Digital Gatekeepers: Google’s Role in Curating Hashtags and Subreddits
Behind Closed Words: Creating and Investigating the forePLay Annotated Dataset for Polish Erotic Discourse
GigaSpeech 2: An Evolving, Large-Scale and Multi-domain ASR Corpus for Low-Resource Languages with Automated Crawling, Transcription and Refinement
Tokenisation is NP-Complete
No Questions are Stupid, but some are Poorly Posed: Understanding Poorly-Posed Information-Seeking Questions
LlamaDuo: LLMOps Pipeline for Seamless Migration from Service LLMs to Small-Scale Local LLMs
On the Limit of Language Models as Planning Formalizers
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Fri, 01 Aug 2025 13:53:15 +0300
Подробнее
]]>
https://linkbaza.com/catalog/-1001568817860 Thu, 31 Jul 2025 13:45:53 +0300
Подробнее
]]>