Get Mystery Box with random crypto!

AI Paradigms

لوگوی کانال تلگرام aiparadigms — AI Paradigms A
لوگوی کانال تلگرام aiparadigms — AI Paradigms
آدرس کانال: @aiparadigms
دسته بندی ها: دستهبندی نشده
زبان: فارسی
مشترکین: 407
توضیحات از کانال

⁦◼️⁩ درس‌گفتار «پارادایم‌های هوش مصنوعی: مدرن تا پسامدرن»
🕟 یک‌شنبه‌ها، ساعت ۱۶:۳۰
🗓 از ۱۱ آذرماه ۹۷
🏛 دانشگاه صنعتی شریف
🆔 @ShenakhtPajouh
🆔 @SSC_public
روابط عمومی:
🆔 @amirhosseinekhlasi

Ratings & Reviews

3.00

2 reviews

Reviews can be left only by registered users. All reviews are moderated by admins.

5 stars

1

4 stars

0

3 stars

0

2 stars

0

1 stars

1


آخرین پیام ها

2021-02-25 17:32:23 چکیده: In 2017 an influential ML paper came out with a somewhat controversial title: “Attention Is All You Need;” The central claim of which was that in order to learn more effectively from sequentially structured data, there’s no longer a need for recurrent…
909 views14:32
باز کردن / نظر دهید
2021-02-25 17:32:15 چکیده:
In 2017 an influential ML paper came out with a somewhat controversial title: “Attention Is All You Need;” The central claim of which was that in order to learn more effectively from sequentially structured data, there’s no longer a need for recurrent architectures: all you need is a new simple neural architecture (called the Transformer), which relies entirely on attention mechanisms. It was a crucial moment in AI history: a new approach to time, sequentiality, and memory began to emerge. One that most effectively challenged the idea that it is enough for learning from temporally perceived phenomena such as language to treat them as merely sequential.
As its title already suggests, the paper has received a great deal of attention. However, this has been mostly about its technical gains and not so much about theoretical implications. So in this talk, through an interdisciplinary exploration of the idea of attention, I am going to draw upon related neuroscientific findings and philosophical investigations, to see how far can this great concept of attention move AI forward towards autonomy.
Is attention really all we need?

پنجشنبه ۲۵ دی ماه
ساعت ۱۸ الی ۲۰

منتظر حضورتان هستیم در :
https://vc.sharif.edu/ch/shenasa-sharif


#CognoGap
@Shenasa_Sharif
649 views14:32
باز کردن / نظر دهید
2021-02-25 17:32:15
Attention & Autonomy

سومین جلسه از سلسله جلسات CognoGap
امیرحسین حاجی شمسایی

پنج‌شنبه ۲۵ دی ماه
ساعت ۱۸ الی ۲۰

منتظر حضورتان هستیم در :
https://vc.sharif.edu/ch/shenasa-sharif


#CognoGap
@Shenasa_Sharif
552 views14:32
باز کردن / نظر دهید
2020-02-21 20:53:04
سلسله جلسات مباحث پیشرفته در یادگیری ماشین

جلسه اول
Bayesian Neural Network

چهارشنبه ۷ اسفند
ساعت ۱۳:۳۰ الی ۱۵:۰۰
خیابان آزادی، بلوار اکبری (ضلع غربی دانشگاه شریف)، جنب پارک طرشت، پلاک ۱۸، واحد ۳

ثبت‌نام رایگان‌:
https://forms.gle/gWRsWviRvma5u8Lt8

به دلیل ظرفیت محدود، ثبت‌نام لزوماً به معنای پذیرش نمی‌باشد. در صورت قطعی شدن ثبت‌نام شما، سه‌شنبه از طریق ایمیل به شما اطلاع داده خواهد شد.

@ShenakhtPajouh
647 views17:53
باز کردن / نظر دهید
2019-05-26 15:28:23 همراهان و مخاطبان گرامی
به اطلاع می‌رساند بنا به مشکل پیش آمده برای ارائه‌کننده، جلسه این هفته کنسل می‌باشد.

@AIParadigms
1.8K views12:28
باز کردن / نظر دهید
2019-05-25 16:35:13
تبارشناسی پارادایم‌های هوش مصنوعی: مدرن تا پسامدرن

جلسۀ یازدهم
AGI Discourse as a Modern Silver-Lining for AI:
Meta-Learning & Transcendentalism


یک‌شنبه ۵ خرداد
ساعت ۱۶:۳۰
سالن خوارزمی دانشکده مهندسی کامپیوتر

@ShenakhtPajouh
@SSC_public

اطلاعات بیشتر در:
@AIParadigms
5.7K viewsedited  13:35
باز کردن / نظر دهید
2019-05-19 12:34:38 با سلام خدمت همراهان و مخاطبان عزیز. به اطلاع می‌رساند این هفته، جلسه تبارشناسی پارادایم‌های هوش مصنوعی برگزار نمی‌شود.

@AIParadigms
1.4K viewsedited  09:34
باز کردن / نظر دهید
2019-05-10 20:21:39
تبارشناسی پارادایم‌های هوش مصنوعی: مدرن تا پسامدرن

جلسۀ نهم
AGI Discourse as a Modern Silver-Lining for AI:
Reinforcement Learning (RL) / Deep RL: From Skinner's Behaviorism to Freudian Psychoanalysis and Back (cont.)

یک‌شنبه ۲۲ اردیبهشت
ساعت ۱۶:۳۰
سالن خوارزمی دانشکده مهندسی کامپیوتر

ثبت‌نام:
http://ssc.ce.sharif.edu/go/AIParadigms

دوستان خارج دانشگاه، برای ثبت نام جهت هماهنگی با حراست دانشگاه تا ظهر روز شنبه فرصت دارند.

@ShenakhtPajouh
@SSC_public

اطلاعات بیشتر در:
@AIParadigms
7.4K views17:21
باز کردن / نظر دهید
2019-05-03 09:13:45
تبارشناسی پارادایم‌های هوش مصنوعی: مدرن تا پسامدرن

جلسۀ نهم
AGI Discourse as a Modern Silver-Lining for AI:
Reinforcement Learning (RL) / Deep RL: From Skinner's Behaviorism to Freudian Psychoanalysis and Back

یک‌شنبه ۱۵ اردیبهشت
ساعت ۱۶:۳۰
سالن خوارزمی دانشکده مهندسی کامپیوتر

ثبت‌نام:
http://ssc.ce.sharif.edu/go/AIParadigms

دوستان خارج دانشگاه، برای ثبت نام جهت هماهنگی با حراست دانشگاه تا ظهر روز شنبه فرصت دارند.

@ShenakhtPajouh
@SSC_public

اطلاعات بیشتر در:
@AIParadigms
7.0K views06:13
باز کردن / نظر دهید
2019-04-27 17:36:51 برای آشنایی بیشتر با رویکرد تاریخی‌گرای هگلی در هوش مصنوعی، که در جلسه هفتم ذیل نقد رویکرد کانتی معرفی، و در جلسه هشتم مورد بحث و بررسی بیشتر قرار گرفت، می‌توانید مقالات زیر را مطالعه نمایید:


- این مقاله‌ی اثرگذار با بیش از ۸۰۰۰ بار ارجاع، مقاله‌ی اصلی Generative Adversarial Network است که در آن برای نخستین بار، این چارچوب به عنوان یک مدل یادگیرنده‌ی Unsupervised برای تولید نمونه‌های شبه‌واقعی و با جزئیات بالا از توزیع‌های پیچیده، به کار گرفته شده است:
Generative Adversarial Nets; Ian J. Goodfellow et al. 2014:
https://arxiv.org/pdf/1406.2661

- این نوشتار نیز، مرجع اصلی آموزشی GAN است که در سال 2016 در کنفرانس NIPS برای معرفی این فریم‌ورک استفاده شد، و پس از آن برای آشنایی با GAN ها بسیار مورد رجوع قرار گرفت:
NIPS 2016 Tutorial: Generative Adversarial Networks; Ian Goodfellow:
https://arxiv.org/pdf/1701.00160

- این مقاله یکی از نمونه‌های درخشان در امتداد ایده‌ی GAN هاست، که در آن با بیشینه کردن اطلاعات متقابل (mutual) بین Latent Variable ها (در اینجا GAN’s noise variables) و Observation ها، نتورک تشویق به یادگیری بازنمودهای معنادار و تفسیرپذیر شده است. این تغییر و نتیجه‌ی آن، دستاوردهای عملی بسیار قابل توجهی در حوزه‌ی Generation داشته است:
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets; Xi Chen et al. 2016:
https://arxiv.org/pdf/1606.03657


@AIParadigms
1.6K viewsedited  14:36
باز کردن / نظر دهید