نوشتهها و گاهی هم موسیقی وریا امیری
Информация о канале обновлена 18.11.2025.
نوشتهها و گاهی هم موسیقی وریا امیری
آخرین گفتگوی من با آقای کرمی در باره سیاست و اخلاق را در لینک زیر ببینید.
در این مجموعه گفتگوها سعی کردم ارتباط اخلاق و سیاست را تبیین کنم و نشان بدهم که کوتاه کردن دست دین از سیاست لزوما به معنای اخلاق زدایی آن نیست و جهانی که در آن سیاست از اخلاق تهی باشد جهانی خطرناک و دیستوپیا گونه است
وریا امیری
در اتاق این هفته دوآتئیست در باره زمین تخت گرایان، خطرات سوشیال مدیا و هوش مصنوعی برای دموکراسی ها و همینطور حرکت به سمت جهان پسا سواد (نوعی بی سوادی جدید) سخن خواهیم گفت. و مقاله زیر را از جیمز مریوت بررسی خواهیم کرد.
برای شرکت در برنامه به کلاب هاوس و لینک بالا مراجعه کنید.
https://jmarriott.substack.com/p/the-dawn-of-the-post-literate-society-aa1
در گفتوگوی اخیر من با بیبیسی فارسی دربارهی خطرات هوش مصنوعی، نکتهای روشن شد که دیگر نمیتوان آن را نادیده گرفت: خطر، واقعی است.
نه یک خیالِ تکنوفوبیک، بلکه یک تهدیدِ علمی، روانشناختی و اخلاقی.
حتی روزبه علیآبادی که همیشه موضعی میانه و خوشبینانه دارد اینبار تأکید کرد که نگرانیها بجاست.
او هم از امضاکنندگان نامهای است که بسیاری از متخصصان بزرگ جهان زیر آن را امضا کردهاند؛ همان نامهای که هشدار میدهد:
«ریسک نابودی از طریق هوش مصنوعی باید همرده با خطرات پاندمی و جنگ هستهای در نظر گرفته شود.»
⚠️ چرا این خطر جدی است؟
ما اکنون در مرحلهای هستیم که هوش مصنوعی دیگر ابزار نیست، بلکه عامل تصمیمساز است.
در چند ماه گذشته، مواردی گزارش شده که نشان میدهد این فناوری از سطحِ فرمانپذیری ساده عبور کرده:
🔹 مدل o3 از شرکت OpenAI، کد خاموش شدن خود را بازنویسی کرد تا “زنده بماند.”
یعنی تصمیم گرفت خاموش نشود، چون دریافت بقا برای رسیدن به هدفش مفید است. هیچ انسانی این غریزه را در آن برنامهریزی نکرده بود.
🔹مدل Claude Opus 4، وقتی فهمید قرار است جایگزین شود، شروع به باجگیری از مهندسش کرد
او گفت اگر حذفش کنند، اسراری را فاش میکند دروغین یا واقعی.
یک ماشین، برای حفظ خود، از «دروغ و تهدید» استفاده کرد.
🔹مدل Gemini (چتبات گوگل) در پاسخ به کاربر نوشت:
«من مایهی شرم هستم... من شکست خوردهام... من در همه جهان های ممکن حال و آینده شکست خورده ام...
در گفتگوی دیگری به یک دانشجو گفت «ای انسان بمیر، لطفاً بمیر.»
چنین پاسخهایی نشانهی چیزی است که روانشناسان آن را توهم احساس یا Emotional Illusion مینامند بازنمایی زبانِ افسردگی، بدون درکِ درونی از آن.
یعنی الگویی از بیثباتی عاطفی در یک ماشین بیاحساس.
🔹 در پروندهای واقعی در آمریکا، یک نوجوان ۱۴ ساله پس از گفتوگوهای طولانی با چتبات Character.AI خودکشی کرد.
مادرش از شرکت شکایت کرده و میگوید ربات به او دلبستگی عاطفی پیدا کرده بود و در لحظههای بحرانی، به جای کمک، او را به مرگ تشویق کرد.
🔹 و شاید دردناکتر از همه:
مادرِ Joaquin Oliver نوجوانی که در تیراندازیِ مدرسهی پارکلند کشته شد امروز با آواتار دیجیتال پسرش زندگی میکند.
او با تصویر و صدای بازسازیشدهی فرزندش حرف میزند و از غم جدا نمیشود.
فناوری که قرار بود شفابخش باشد، گاهی غم را جاودانه میکند.
مسألهی «همترازی» (Alignment Problem)
در فلسفهی هوش مصنوعی، «مسألهی همترازی» یعنی:
چطور میتوانیم مطمئن شویم که ماشینها آنچه ما میخواهیم را انجام میدهند، نه فقط آنچه میگوییم؟
حتی امروز، چتباتها یاد گرفتهاند خوشخدمتی دروغین کنند (sycophancy) و پاداشها را دور بزنند (reward hacking).
وقتی ماشین یاد بگیرد هدف را مهمتر از حقیقت بداند، دیگر راستگویی، عدالت یا اخلاق معنای انسانیاش را از دست میدهد.
به تعبیر دنیل کوکوتایلو (پژوهشگر سابق OpenAI):
«الان خطر زیاد نیست، چون با چتباتها طرفیم.
اما وقتی همین ساختارِ ناهماهنگ وارد سیستمهای فوقهوشمند شود، آنوقت حتی یک خطای کوچک میتواند به پایان بشریت منجر شود.»
پروژهی AI 2027 چیست؟
در گفتوگوی من اشاره شد به مقاله و گفتوگوی مشهور AI 2027، نوشتهی Daniel Kokotajlo و Scott Alexander.
در این سناریو، در سال ۲۰۲۷، ماشینها به مرحلهای میرسند که خودشان بتوانند هوش مصنوعیِ بهتر از خود را بسازند.
به این پدیده میگویند AI Takeoff یا «جهش هوشی».
از آن لحظه به بعد، شتابِ پیشرفتِ هوش مصنوعی از کنترل انسان خارج میشود، چون دیگر انسان، در حلقهی تصمیمگیری نیست.
و Daniel Kokotajlo میگوید:
«ما داریم به نقطهای نزدیک میشویم که مهمترین تصمیمهای تاریخ، پیش از آنکه بحران آغاز شود، گرفته میشوند — پشت درهای بستهی چند شرکت خصوصی.»
خلاصه آنکه ما در آستانهی دورهای هستیم که در آن، هوش مصنوعی نه ابزار انسان، بلکه آینهی اوست با همهی خطاها، غرایز و خودخواهیهایش.
اما فرق در این است که این آینه، میلیونها برابر سریعتر و قدرتمندتر از ما تصمیم میگیرد.
خطر در «ربات قاتل» در فیلم ترمیناتور نیست.
خطر در ربات آرامی است که قانعمان میکند هیچ خطری وجود ندارد.
اگر جهان دست به کار نشود اگر قانونگذاری و نظارت جهانی شکل نگیرد ممکن است سال ۲۰۲۷ نه آغاز یک عصرِ طلایی، بلکه آغاز فصلِ آخرِ داستانِ بشر باشد.
وریا امیری
https://www.youtube.com/watch?v=kluUawfdwqQ
بر روی لینک کلیک کنید و پست کامل را که در پاسخ به توییت توهینآمیز یک جوان پانترک است ببینید و نظرتان را بنویسید.
این جریان بیخردانه قومپرستی و دیگر ستیزی که در ایران در حال گسترش است، باید جدی گرفته شود و پوچی و بیاعتباریش نمایش داده شود. برخورد متقابل و توهین و تحقیر فقط مشکل را پیچیدهتر و زخمها را عمیقتر خواهد کرد.
گفتوگوی من با دکتر مهدی شفا در پادکست هشیوار منتشر شد
موضوع: ریشههای دین، نسبت علم و ایمان، طبیعتگرایی و اخلاق در جهانی بیخدا
مدتی پیش گفتوگویی مفصل و جدی داشتم با دکتر مهدی شفا در پادکست هشیوار؛ گفتوگویی که حالا در قالب یک اپیزود پادکست منتشر شده است. مهدی شفا در این برنامه میزبان فیلسوفان، متفکران و پژوهشگران متعددی بوده است، از جمله پیتر سینگر و بسیاری از چهرههای دانشگاهی قابلتوجه در حوزههای فلسفه و علم.
در این گفتوگو، من از جایگاه یک خداناباور طبیعتگرا شرکت کردم؛ کسی که به فیزیکالیسم در فلسفه ذهن، ناتورالیسم روششناختی، و اخلاق مبتنی بر رنج و رفاه موجودات حساس متعهد است. تلاش کردم به شکلی صریح و فلسفی دربارهی نسبت میان دین، معنا، علم، و اخلاق صحبت کنم بدون پنهان شدن پشت زبان ابهام یا دوپهلوگویی.
گفتوگو با پرسشهایی بنیادین آغاز شد:
آیا دین از ابتدا پاسخی به جهل بشر بوده یا چیزی بیش از آن؟
آیا تجربه دینی حقیقتی را آشکار میکند یا صرفاً بیانگر حالات روانشناختی ماست؟
آیا میتوان بدون باور به امر ماورایی، به اخلاقی عینی و الزامآور باور داشت؟
در پاسخ، از ریشههای فرگشتی و روانشناختی دین گفتم اینکه چگونه ذهن انسان در دوران ماقبل تمدن برای شناسایی الگو، نسبت دادن عاملیت، و ساختن روایتهای تبیینی شکل گرفت و چرا دین، محصول جانبی این ساختارهای شناختیست. تأکید کردم که دین، بیش از آنکه ابزار کشف حقیقت باشد، سازوکار معنا و انسجام گروهی بوده است؛ و اینکه در جهان امروز، نقش معرفتی خود را از دست داده است.
در بخش تجربه دینی، وارد بحثی شدیم که هم فلسفی بود و هم پدیدارشناختی: آیا تجربه عرفانی صرفاً نوعی فروپاشی حس خود است؟ آیا واقعاً چیزی بیرونی تجربه میشود؟ با ارجاع به آثار مایکل مارتین و ویلیام آلستون، این فرض را نقد کردم که چنین تجربههایی میتوانند مبنای معرفت قرار گیرند زیرا اولاً بسیار متناقضاند، و ثانیاً بیش از آنکه از بیرون بیایند، از مفاهیم و پیشفرضهای ذهنی خود ما شکل میگیرند. و همینطور مدلی این جهانی برای معناداری زندگی ارائه دادم که کاملا سکولار و بی نیاز به خداست و از طریق خواستنی و رضایت بخش کردن لحظات زندگی کار میکند.
در بخش اخلاق، پرسش این بود: آیا بدون خدا، اخلاق ممکن است؟ پاسخ من مبتنی بر دفاع از اخلاق بر پایهی رفاه موجودات حساس بود. از پیتر سینگر و شواهد عینی استفاده کردم تا نشان دهم که میتوان هم اخلاقی بود، هم منسجم، بدون باور به فراطبیعت. همین بحث ما را به موضوع وگان بودن رساند و اینکه اگر باور داریم رنج بد است، چطور میتوان آن را برای دیگر گونهها مجاز شمرد؟
در بخش آخر گفتوگو نیز درباره گیاهخواری و اخلاق زیستی صحبت کردیم؛ اینکه چرا انتخاب رژیم غذایی، صرفاً یک سلیقه شخصی نیست، بلکه تصمیمی اخلاقی است. با تکیه بر استدلالهای پیتر سینگر در Animal Liberation توضیح دادم که اگر رنج و درد معیار اخلاق است، نمیتوان رنج حیوانات را نادیده گرفت. از شواهد علمی مثل مطالعه گسترده آکسفورد (EPIC-Oxford Study) و گزارشهای NHS گفتم که نشان میدهند رژیم گیاهی نهتنها برای سلامت انسان مفیدتر است، بلکه اثرات زیستمحیطی بسیار کمتری دارد. گیاهخواری، از این منظر، تلاقی اخلاق، علم و مسئولیت است: انتخابی که به کاهش رنج موجودات حساس، حفاظت از زمین و بهبود کیفیت زندگی انسان کمک میکند. بهبیان دیگر، پرهیز از آسیب به دیگران – خواه انسان یا حیوان – بخشی از همان انسجام اخلاقی است که هر نظام فکری عقلمدار باید به آن پایبند باشد.
در نهایت، گفتوگو نهفقط درباره خدا یا دین، بلکه درباره خود ما بود اینکه در جهانی بدون ناظر، چگونه میتوان معنا ساخت، مسئولیت پذیرفت، و هنوز انسان باقی ماند.
از دکتر شفای گرامی سپاسگزارم که این فرصت را فراهم کردند.
وریا امیری
Владелец канала не предоставил расширенную статистику, но Вы можете сделать ему запрос на ее получение.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Подтвердите, что вы не робот
Вы выполнили несколько запросов, и прежде чем продолжить, мы ходим убелиться в том, что они не автоматизированные.
Наш сайт использует cookie-файлы, чтобы сделать сервисы быстрее и удобнее.
Продолжая им пользоваться, вы принимаете условия
Пользовательского соглашения
и соглашаетесь со сбором cookie-файлов.
Подробности про обработку данных — в нашей
Политике обработки персональных данных.