Get Mystery Box with random crypto!

Tensorflow(@CVision)

لوگوی کانال تلگرام cvision — Tensorflow(@CVision) T
لوگوی کانال تلگرام cvision — Tensorflow(@CVision)
آدرس کانال: @cvision
دسته بندی ها: فن آوری ها
زبان: فارسی
مشترکین: 8.66K
توضیحات از کانال

اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر
TensorFlow, Keras, Deep Learning, Computer Vision
سایت دوره
http://class.vision
👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

Ratings & Reviews

3.33

3 reviews

Reviews can be left only by registered users. All reviews are moderated by admins.

5 stars

1

4 stars

0

3 stars

1

2 stars

1

1 stars

0


آخرین پیام ها 16

2022-01-22 11:18:13 امروز نخستین جلسه این دوره خواهد بود. هنوزم وقت ثبت نام هست ...

لینک ثبت نام
769 viewsAlireza Akhavan, edited  08:18
باز کردن / نظر دهید
2022-01-22 11:17:35
#دوره #آنلاین
دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر.

این دوره با همکاری #دیجی_نکست برگزار می گردد.

کد تخفیف 15 درصدی مخصوص اعضای کانال:
cvision

برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید:
http://class.vision
692 viewsAlireza Akhavan, 08:17
باز کردن / نظر دهید
2022-01-21 19:30:48
کانال منابع برنامه نویسی
با مدیریت فارغ التحصیلان کامپیوتر دانشگاه علم و صنعت ایران
@pythony
809 viewsAlireza Akhavan, 16:30
باز کردن / نظر دهید
2022-01-18 13:00:44 ۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست اِن‌شیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بی‌وقفه، هویت خود را برای مخاطبان فاش کرد: «سلام به همگی، من مجری خبری…
1.2K viewsAlireza Akhavan, 10:00
باز کردن / نظر دهید
2022-01-18 12:25:29 ۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست

اِن‌شیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بی‌وقفه، هویت خود را برای مخاطبان فاش کرد:
«سلام به همگی، من مجری خبری هوش مصنوعی نشنال بیزینیس دیلی هستم. دوقلوی مجازی مجری اصلی محسوب می‌شوم. اکنون ۷۰ روز است که به‌طور ناشناس در حال اجرا هستم و اخبار را گزارش می‌کنم»

persianepochtimes.com/?p=56464
1.5K viewsAlireza Akhavan, 09:25
باز کردن / نظر دهید
2022-01-17 10:38:11
میدونستید با فراخوانی jax2tf.convert() میتونید از jax در یک لایه کراس استفاده کنید؟
948 viewsAlireza Akhavan, 07:38
باز کردن / نظر دهید
2022-01-16 14:39:59
کانال خوبی در مورد معرفی رویدادهای مرتبط با هوش مصنوعی

@eventai
1.3K viewsAlireza Akhavan, 11:39
باز کردن / نظر دهید
2022-01-15 22:31:05 در انتقال یادگیری از لایه‌های میانی غافل نشوید

در سناریو انتقال یادگیری و هنگامی که بخواهیم شبکه پیش آموزش دیده روی تسک مبدا را برای تسک مقصد استفاده کنیم، دو راه پیش‌روی خود داریم. راه اول این است که شبکه را به اصطلاح فریز کنیم و یک لایه خطی روی فیچر‌های لایه آخر شبکه برای تسک مقصد استفاده کنیم. راه دوم هم این است که کل شبکه را مورد فاین تیون قرار بدهیم. حالا مقاله‌ای اومده که نشون داده راه سومی هم جز این دو هست و این راه فریزکردن شبکه و در عین حال سوارکردن یک لایه خطی بر روی فیچرهای تمام لایه‌های میانی شبکه است (نه فقط فیچرهای لایه آخر). در واقع سوالی که منجر به این ایده شده این بوده که Fine-tuning با این که پیچیدگی و تعداد پارامتر بیشتری نسبت به حالت فریزکردن مدل داره چرا بهتر عمل میکنه؟ نکنه در سناریو Fine-tuning صرفا فیچرهای میانی شبکه دارند به آخر شبکه پاس داده می‌شوند؟؟)

این مقاله ابتدا اومده imagenet رو به عنوان تسک مبدا در نظر گرفته و ۱۹ دیتاست دیگه مثل Cifar100 و Clevr و Pets و ... رو به عنوان تسک مقصد در نظر گرفته. سپس یک مقداری تحت عنوان domain affinity محاسبه کرده که نشون میده هر کدوم از این ۱۹ تسک مقصد چه قدر به imagenet نزدیک هستند. حالا اومدند و برای هر کدوم از این دیتاست‌ها سه سناریو دسته‌بند خطی روی شبکه مبدا فریزشده (Linear)، فاین تیون‌کردن شبکه مبدا (Fine-tuning) و اموزش دادن از اول (Scratch) و نتایج این روشها رو تو عکس figure2 ای که مشاهده میکنید گذاشتند. در این نمودار دیتاست های سمت چپ دارای affinity کمتر و دیتاست‌های سمت راست دارای affinity بیشتری هستند. نمودار نشون میده که برای دیتاست‌های چپ سناریو Scratch جواب‌بهتری از بقیه میده و برای دیتاست‌های راست هم سناریو Linear جواب خوبی میده ( که منطقی هم هست).

در گام بعدی مقاله اومده و مدل خودش یعنی Head2Toe رو مطرح کرده. در این مدل ابتدا شبکه مبدا (همون پیش آموزش دیدهه روی imagent) فریز میشه و سپس تمامی فیچر‌های میانی شبکه انتخاب می‌شوند. از اونجایی که سایز اینها خب زیاده فیچرهای هر لایه توسط یک مکانیزم pooling ابعادشون کاهش پیدا میکنه. در نهایت تمامی این فیچرهای کاهش بعد داده شده تمامی لایه‌ها با هم کانکت می‌شوند و یک بردار ویژگی بزرگ به دست میاد (اسمش رو h_all بذارید). از اونجایی که این h_all هم بزرگه و آموزش دادن کلاسیفایر خطی روش ممکنه منجر به اورفیت بشه، مقاله اومده از رگولاریزیشن Group lasso برای آموزش یک دسته‌بند خطی روی این بردار بزرگ استفاده کرده تا وزن‌هایی که به دست میان اسپارس باشن و هم به نوعی عمل فیچر سلکشن رو روی h_all انجام داده. در نهایت هم اومدن head2Toe رو روی اون ۱۹ دیتاست مختلف اجرا کردند و نشون دادند که در میانگین روششون بهتر از سناریو‌های دیگه نظیر Linear و حتی Fine-tune داره عمل میکنه!

لینک مقاله:
https://arxiv.org/abs/2201.03529

#read
#paper

Thanks to: @nlp_stuff
866 viewsAlireza Akhavan, 19:31
باز کردن / نظر دهید
2022-01-15 22:25:50
بحث آزاد پرسش و پاسخ با دکتر رحیم دهخوارقانی و دکتر میثم عسگری پیرامون موضوع زیر:

Sentiment Analysis and its Challenges for the NLP World

در تاریخ یکشنبه ۲۶ دی ساعت ۲۱ به وقت تهران

در پیج اینستاگرام زیر برگزار میگردد.

https://instagram.com/ai_python_podcast

هر گونه سوالی که دارید روی این پست کامنت کنید.

@AI_Python
610 viewsAlireza Akhavan, 19:25
باز کردن / نظر دهید
2022-01-15 16:51:42 training Vision Transformers (ViT) on small datasets
https://keras.io/examples/vision/vit_small_ds/
1.1K viewsAlireza Akhavan, 13:51
باز کردن / نظر دهید