مجله هوش مصنوعی عصر گویش
021 61931000
Информация о канале обновлена 06.10.2025.
مجله هوش مصنوعی عصر گویش
021 61931000
🔹 پیشنهاد جدید گوگل: TUMIX — مقیاسپذیری چندعاملی در زمان اجرا با ترکیب ابزارها
گوگل از چارچوب جدیدی به نام TUMIX رونمایی کرده است؛ یک سیستم چندعاملی در زمان اجرا که سبکهای مختلف عامل (مثل زنجیره فکر صرفاً متنی، اجرای کد، جستجوی وب، یا نسخههای هدایتشده) را به صورت موازی اجرا میکند. این عوامل میتوانند چند دور پاسخهای میانی را با هم به اشتراک بگذارند و با کمک یک مدل داور زبانی (LLM-judge) در صورت رسیدن به توافق بالا، فرآیند را زودتر خاتمه دهند.
📊 در بنچمارکهای استدلالی پیچیده، TUMIX عملکردی بهتر از روشهای پایه مبتنی بر ابزار دارد، آن هم با بودجه محاسباتی مشابه. با استفاده از Gemini-2.5 Pro، نسخه TUMIX+ موفق شده به دقت ۳۴.۱٪ در آزمون Humanity’s Last Exam (یک بنچمارک نهاییشده با ۲۵۰۰ سوال) دست یابد.
همچنین پیشرفتهایی در بنچمارکهای دیگر مانند GPQA-Diamond (با ۱۹۸ سؤال) و AIME نیز گزارش شده، آن هم در حالیکه هزینه محاسباتی را با توقف زودهنگام و مدیریت دقیق استفاده از ابزارها کاهش داده است.
🔬 طبق نتایج تجربی، بهترین عملکرد زمانی حاصل میشود که از ۱۲ تا ۱۵ سبک عاملی مختلف استفاده شود؛ استفاده بیشتر منجر به اشباع دقت شده و در این نقطه، مسئله انتخاب بهترین پاسخ به جای تولید آن، به گلوگاه اصلی تبدیل میشود.
🧠 تحلیل کامل در Marktechpost
📄 لینک مقاله کامل در arXiv
@asrgooyeshpardaz
تسلا اپتیموس هم کونگفو یاد میگیرد
#Tesla #Optimus
@asrgooyeshpardaz
- به عنوان یک عامل بصری روی کامپیوتر و گوشیهای هوشمند کار میکند 🖥📱
- تولید کد از تصاویر (HTML/CSS/JS) 💻
- درک فضایی پیشرفته برای هوش مصنوعی و رباتیک 🤖
🎯 بهبودهای فنی:
- زمینه تا ۱ میلیون توکن 📚
- شناسایی همه چیز: افراد مشهور، انیمه، جاذبههای گردشگری 🌟
- قابلیت OCR به ۳۲ زبان، شامل نمادهای باستانی 🈯️
- نتایج عالی در علوم پایه و منطق 🧪
⚡️ معماری:
- معماری Interleaved-MRoPE برای تحلیل ویدئو 🎥
- معماری DeepStack برای درک دقیق تصاویر 🔍
- اتصال دقیق متن به نشانههای زمانی ⏱️
نسخههای Instruct و Thinking نیز در دسترس هستند! 🚀
🔗مدل
https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe
#AI #Qwen #VLM
@asrgooyeshpardaz
🔹 ابزار Ming-UniAudio: ابزار همهکاره برای کار با صوت
مدلی نوین که درک، تولید و ویرایش صوت را بدون نیاز به زمانبندی (timestamps) در یک چارچوب واحد انجام میدهد. این سیستم بر پایه توکنایزر جدید MingTok-Audio طراحی شده و یک مدل زبانی چندمنظوره صوتی (Speech LLM) را شکل داده است. همراه با آن، یک بنچمارک برای ارزیابی توانایی در ویرایش آزادانه گفتار نیز منتشر شده است.
📎 GitHub | Tokenizer | Model | Benchmark
🔹 دوره رایگان و جدید آموزش شبکههای عصبی از اندرو ان و دانشگاه استنفورد
اندرو ان، بنیانگذار کورسرا، یک دوره رایگان جدید برای یادگیری شبکههای عصبی منتشر کرده است. این دوره شامل آموزش مفاهیم پایه یادگیری عمیق، تمرینهای عملی و نکاتی درباره ساخت مسیر شغلی در حوزه هوش مصنوعی است.
🎓 اولین جلسه | برنامه درسی کامل
🔹 زیرساختهای هوش مصنوعی، موتور محرک اقتصاد آمریکا
حدود ۴۰٪ رشد تولید ناخالص داخلی (GDP) آمریکا در فصل اخیر، حاصل سرمایهگذاری در فناوریهایی است که مستقیماً به هوش مصنوعی مربوط میشوند.
🔸 بانک UBS پیشبینی میکند که سرمایهگذاری شرکتها در زیرساختهای AI تا سال ۲۰۲۵ به ۳۷۵ میلیارد دلار و در سال ۲۰۲۶ به ۵۰۰ میلیارد دلار برسد.
🔸 بیشترین رشد از ساخت «کارخانههای توان» (یعنی دیتاسنترها) حاصل میشود؛ بنابر گزارش Brookfield، این صنعت در ۱۰ سال آینده تا ۷ تریلیون دلار سرمایه جذب خواهد کرد.
🔸 طبق دادههای وزارت بازرگانی آمریکا، یکچهارم از کل رشد اقتصادی فصل اخیر فقط از سرمایهگذاری در نرمافزار و سختافزار کامپیوتری حاصل شده (بهجز ساختمان دیتاسنترها).
🔸 بهگفته دویچه بانک، شاخص S&P500 از ابتدای سال ۱۳.۸۱٪ رشد داشته، در حالیکه نسخه وزنی مساوی آن فقط ۷.۶۵٪ رشد داشته که نشان میدهد رشد بازار عمدتاً حاصل عملکرد ۷ شرکت بزرگ تکنولوژی است.
📎 لینک منبع
🔹 مدرسه Alpha School: مدرسهای در تگزاس که معلمانش را هوش مصنوعی جایگزین کرده است
در این مدرسه، دانشآموزان کلاس چهارم و پنجم هر روز صبح بهمدت دو ساعت آموزشهای فردی در علوم، ریاضی و خواندن دریافت میکنند و بعدازظهرها به پروژههای عملی و مهارتهای زندگی میپردازند.
🔸 نقش معلمان به «راهنما» تغییر یافته است؛ آنها آموزش مستقیم نمیدهند، بلکه صرفاً انگیزهبخش هستند و حقوقهای ششرقمی میگیرند.
🔸 این مدرسه مدعی است که شاگردانش در میان ۱٪ برتر در تستها قرار میگیرند، هرچند برخی از متخصصان در مورد نقش واقعی AI تردید دارند.
🔸 شهریه مدرسه از ۴۰ هزار دلار در سال شروع میشود، ولی مؤسسان آن این مدل را «آینده آموزش» میدانند.
📎 گزارش CBS
🔹 کمک هوش مصنوعی به ترنس تائو برای حل یک مسئله ریاضی دشوار
ترنس تائو، یکی از بزرگترین ریاضیدانان معاصر، با کمک هوش مصنوعی توانست یک مثال نقض (counterexample) برای یک مسئله در مورد دنباله مضرب مشترک کوچکتر (LCM) بیابد.
🔸 او ابتدا از AI خواست تا کدی در پایتون برای جستجو تولید کند، اما به دلیل پارامترهای اشتباه و اجرای کند، ناکام ماند.
🔸 سپس با رویکرد الگوریتمی مرحلهبهمرحله، از AI برای انجام محاسبات اکتشافی و محدود کردن فضای پارامترها استفاده کرد.
🔸 در نهایت، با استفاده از یک اسکریپت ساده (همچنان تولید شده توسط AI)، موفق شد که مقادیر درست را بیابد.
🧠 این فرایند نشان داد که سیستمهای هوشمند امروزی میتوانند بهعنوان دستیار واقعی در ریاضیات نظری عمل کنند — حتی در حل مسائلی که پیشتر بسیار دشوار محسوب میشدند.
📎 منبع
#هوش_مصنوعی #اخبار #یادگیری_ماشین #دیپلرنینگ #اقتصاد #آموزش #مدرسه_هوشمند
@asrgooyeshpardaz
پنگ ژیهویی، بنیانگذار AgiBot، بهتازگی جدیدترین ویدیو از توسعه Lingxi X2 را منتشر کرده است. در این ویدیو، ربات انساننمای آنها یک رقص جدید را که بهتازگی یاد گرفته، بهصورت زنده اجرا میکند. حرکات ربات فوقالعاده روان و هماهنگ هستند — تماشای این میزان از چابکی و مهارت، واقعاً تحسینبرانگیز است.
منبع: RoboHub
@asrgooyeshpardaz
🔹شرکت IBM از Granite 4.0 رونمایی کرد — خانواده جدید مدلهای زبانی با وزنهای باز (Open-Weights) از ۳ تا ۳۲ میلیارد پارامتر
شرکت IBM چهار مدل جدید از نسل چهارم Granite را معرفی کرده است:
🔸مدل Granite 4.0 H Small – با ۳۲B پارامتر کل و ۹B پارامتر فعال
🔸مدل Granite 4.0 H Tiny – با ۷B پارامتر کل و ۱B پارامتر فعال
🔸مدل Granite 4.0 H Micro – با ۳B پارامتر فعال و کل
🔸مدل Granite 4.0 Micro – با ۳B پارامتر فعال و کل
نتایج بنچمارک (شاخص تحلیل مصنوعی):
🔸مدل Granite 4.0 H Small با کسب امتیاز ۲۳، هشت امتیاز بالاتر از نسخه قبلی Granite 3.3 8B قرار گرفت و عملکردی بهتر از Gemma 3 27B (با امتیاز ۲۲) داشت، اما از Mistral Small 3.2 (با امتیاز ۲۹) و Qwen3 30B A3B (با امتیاز ۳۷) پایینتر است.
🔸مدل Granite 4.0 Micro امتیاز ۱۶ را کسب کرده که از Gemma 3 4B (با امتیاز ۱۵) و LFM 2 2.6B (با امتیاز ۱۲) بالاتر است.
جزئیات فنی دیگر:
🔸پشتیبانی از زمینههای متنی تا ۱۲۸ هزار توکن
🔗 Hugging Face
🔗 Unsloth
#AI #IBM #Granite4 #LLM #OpenWeights
📎 مقالهای تازه در Nature Communications (سپتامبر ۲۰۲۵) راهکاری نوین برای بهبود توانایی برنامهریزی مدلهای زبانی بزرگ (LLMs) ارائه میدهد.
🔍 مسأله چیست؟
مدلهای زبانی بزرگ در حل مسائل چندمرحلهای و نیازمند استدلال ساختیافته دچار مشکلاند. دلیل؟ ناتوانی در هماهنگی مؤلفههای شناختی مختلف مانند تقسیم وظایف، پیشبینی پیامدها و ارزیابی نتایج.
💡 راهحل: معماری MAP (Modular Agentic Planner)
یک چارچوب عاملی با الهام از ساختار مغز که شامل ۶ مؤلفه تخصصی است:
Task Decomposer: تبدیل هدف به زیرهدف
Actor: پیشنهاد عمل
Monitor: فیلتر کردن اقدامات نامعتبر
Predictor: پیشبینی وضعیت آینده
Evaluator: ارزیابی نتایج
Orchestrator: هماهنگی گامها و تشخیص پایان
🔄 این مؤلفهها با همکاری یکدیگر و با استفاده از LLM اجرا میشوند و حلقهای از تصمیمسازی سلسلهمراتبی ایجاد میکنند.
📊 نتایج کلیدی
در ۴ حوزه آزمایش مختلف، MAP عملکردی برتر از روشهای پایه مثل Chain-of-Thought، Tree-of-Thought و AgentBench داشت:
حل موفقتر مسائل کلاسیک (مانند Tower of Hanoi)
کاهش چشمگیر اقدامات نامعتبر
توانایی تعمیم به محیطهای ناآشنا
بهبود در ارزیابی منطقی و زبانی مسائل استدلالی
⚠ محدودیتها و آینده
محیطهای با عدم قطعیت یا مشاهده ناقص هنوز پوشش داده نشدهاند.
اجرای چند مؤلفه LLM هزینهبر است، ولی آزمایشها با مدلهای سبکتر هم نتایج خوبی داشتهاند.
گام بعدی: افزودن مؤلفه حافظه و یادگیری بلندمدت برای دستیابی به عاملهای واقعاً هوشمند و تطبیقی.
📎 مطالعه مقاله:
https://www.nature.com/articles/s41467-025-63804-5
#LLM #AgenticAI #CognitiveArchitecture #NeuroInspired #Nature2025
@asrgooyeshpardaz
Владелец канала не предоставил расширенную статистику, но Вы можете сделать ему запрос на ее получение.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Подтвердите, что вы не робот
Вы выполнили несколько запросов, и прежде чем продолжить, мы ходим убелиться в том, что они не автоматизированные.