آدرس کانال:
دسته بندی ها:
فن آوری ها
زبان: فارسی
مشترکین:
8.66K
توضیحات از کانال
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر
TensorFlow, Keras, Deep Learning, Computer Vision
سایت دوره
http://class.vision
👨💻👩💻پشتیبان دوره ها:
@classvision_support
Ratings & Reviews
Reviews can be left only by registered users. All reviews are moderated by admins.
5 stars
1
4 stars
0
3 stars
1
2 stars
1
1 stars
0
آخرین پیام ها 16
2022-01-22 11:18:13
امروز نخستین جلسه این دوره خواهد بود. هنوزم وقت ثبت نام هست ...
لینک ثبت نام
769 viewsAlireza Akhavan, edited 08:18
2022-01-22 11:17:35
#دوره #آنلاین
دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر.
این دوره با همکاری #دیجی_نکست برگزار می گردد.
کد تخفیف 15 درصدی مخصوص اعضای کانال:
cvision
برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید:
http://class.vision
692 viewsAlireza Akhavan, 08:17
2022-01-21 19:30:48
کانال منابع برنامه نویسی
با مدیریت فارغ التحصیلان کامپیوتر دانشگاه علم و صنعت ایران
@pythony
809 viewsAlireza Akhavan, 16:30
2022-01-18 13:00:44
۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد: «سلام به همگی، من مجری خبری…
1.2K viewsAlireza Akhavan, 10:00
2022-01-18 12:25:29
۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد:
«سلام به همگی، من مجری خبری هوش مصنوعی نشنال بیزینیس دیلی هستم. دوقلوی مجازی مجری اصلی محسوب میشوم. اکنون ۷۰ روز است که بهطور ناشناس در حال اجرا هستم و اخبار را گزارش میکنم»
persianepochtimes.com/?p=56464
1.5K viewsAlireza Akhavan, 09:25
2022-01-17 10:38:11
میدونستید با فراخوانی jax2tf.convert() میتونید از jax در یک لایه کراس استفاده کنید؟
948 viewsAlireza Akhavan, 07:38
2022-01-16 14:39:59
کانال خوبی در مورد معرفی رویدادهای مرتبط با هوش مصنوعی
@eventai
1.3K viewsAlireza Akhavan, 11:39
2022-01-15 22:31:05
در انتقال یادگیری از لایههای میانی غافل نشوید
در سناریو انتقال یادگیری و هنگامی که بخواهیم شبکه پیش آموزش دیده روی تسک مبدا را برای تسک مقصد استفاده کنیم، دو راه پیشروی خود داریم. راه اول این است که شبکه را به اصطلاح فریز کنیم و یک لایه خطی روی فیچرهای لایه آخر شبکه برای تسک مقصد استفاده کنیم. راه دوم هم این است که کل شبکه را مورد فاین تیون قرار بدهیم. حالا مقالهای اومده که نشون داده راه سومی هم جز این دو هست و این راه فریزکردن شبکه و در عین حال سوارکردن یک لایه خطی بر روی فیچرهای تمام لایههای میانی شبکه است (نه فقط فیچرهای لایه آخر). در واقع سوالی که منجر به این ایده شده این بوده که Fine-tuning با این که پیچیدگی و تعداد پارامتر بیشتری نسبت به حالت فریزکردن مدل داره چرا بهتر عمل میکنه؟ نکنه در سناریو Fine-tuning صرفا فیچرهای میانی شبکه دارند به آخر شبکه پاس داده میشوند؟؟)
این مقاله ابتدا اومده imagenet رو به عنوان تسک مبدا در نظر گرفته و ۱۹ دیتاست دیگه مثل Cifar100 و Clevr و Pets و ... رو به عنوان تسک مقصد در نظر گرفته. سپس یک مقداری تحت عنوان domain affinity محاسبه کرده که نشون میده هر کدوم از این ۱۹ تسک مقصد چه قدر به imagenet نزدیک هستند. حالا اومدند و برای هر کدوم از این دیتاستها سه سناریو دستهبند خطی روی شبکه مبدا فریزشده (Linear)، فاین تیونکردن شبکه مبدا (Fine-tuning) و اموزش دادن از اول (Scratch) و نتایج این روشها رو تو عکس figure2 ای که مشاهده میکنید گذاشتند. در این نمودار دیتاست های سمت چپ دارای affinity کمتر و دیتاستهای سمت راست دارای affinity بیشتری هستند. نمودار نشون میده که برای دیتاستهای چپ سناریو Scratch جواببهتری از بقیه میده و برای دیتاستهای راست هم سناریو Linear جواب خوبی میده ( که منطقی هم هست).
در گام بعدی مقاله اومده و مدل خودش یعنی Head2Toe رو مطرح کرده. در این مدل ابتدا شبکه مبدا (همون پیش آموزش دیدهه روی imagent) فریز میشه و سپس تمامی فیچرهای میانی شبکه انتخاب میشوند. از اونجایی که سایز اینها خب زیاده فیچرهای هر لایه توسط یک مکانیزم pooling ابعادشون کاهش پیدا میکنه. در نهایت تمامی این فیچرهای کاهش بعد داده شده تمامی لایهها با هم کانکت میشوند و یک بردار ویژگی بزرگ به دست میاد (اسمش رو h_all بذارید). از اونجایی که این h_all هم بزرگه و آموزش دادن کلاسیفایر خطی روش ممکنه منجر به اورفیت بشه، مقاله اومده از رگولاریزیشن Group lasso برای آموزش یک دستهبند خطی روی این بردار بزرگ استفاده کرده تا وزنهایی که به دست میان اسپارس باشن و هم به نوعی عمل فیچر سلکشن رو روی h_all انجام داده. در نهایت هم اومدن head2Toe رو روی اون ۱۹ دیتاست مختلف اجرا کردند و نشون دادند که در میانگین روششون بهتر از سناریوهای دیگه نظیر Linear و حتی Fine-tune داره عمل میکنه!
لینک مقاله:
https://arxiv.org/abs/2201.03529
#read
#paper
Thanks to: @nlp_stuff
866 viewsAlireza Akhavan, 19:31
2022-01-15 22:25:50
بحث آزاد پرسش و پاسخ با دکتر رحیم دهخوارقانی و دکتر میثم عسگری پیرامون موضوع زیر:
Sentiment Analysis and its Challenges for the NLP World
در تاریخ یکشنبه ۲۶ دی ساعت ۲۱ به وقت تهران
در پیج اینستاگرام زیر برگزار میگردد.
https://instagram.com/ai_python_podcast
هر گونه سوالی که دارید روی این پست کامنت کنید.
@AI_Python
610 viewsAlireza Akhavan, 19:25
2022-01-15 16:51:42
training Vision Transformers (ViT) on small datasets
https://keras.io/examples/vision/vit_small_ds/
1.1K viewsAlireza Akhavan, 13:51