نحوه دریافت مجوز خروج از کشور برای دانشجویان

پارسال زمستون وقتی که می‌خواستم برای اولین بار مجوز خروج از کشور بگیرم، تقریبا هیچ جایی و هیچ کسی نبود که بتونه برام پروسه‌ای که برای دریافت مجوز باید طی کنم رو توضیح بده. حتی آموزش دانشگاه و پلیس +۱۰ هم خیلی دقیق از کل روند خبر نداشتند. یکی می‌گفت باید بری میدون سپاه، یکی می‌گفت باید از فلان جا کاغذ بگیری بدی به بهمان جا. و نکته جالب اینکه همشون اشتباه می‌کردند. برای همین امشب تصمیم گرفتم این روند رو کامل و از اول تا آخر توضیح بدم تا شما مثل من اذیت نشید.

ماجرا اینه که پسر هستید و مثل من سربازی نرفته باشید و دانشجو باشید، برای هر بار خروج از کشور باید مجوز خروج بگیرید. این مجوز رو سازمان نظام وظیفه با همکاری دانشگاه محل تحصیل صادر می‌کنه و برای گرفتنش باید ۱۵میلیون تومن پول نقد وثیقه بذارید. خبر خوب اینکه تمام پروسه اینترنتی انجام میشه و شما حتی لازم نیست از پشت لپتاپ بلند شید.

ادامه این نوشته

۲ نظر

ریکامندر سیستم‌ها چطوری کار می‌کنند؟ (قسمت دوم)

در نوشته قبلی لزوم استفاده از ریکامندر سیستم‌ها رو توضیح دادم و نوشتم که چرا بهشون نیاز داریم. همینطور گفتم که دو رویکرد پالایش مشارکتی و محتوا محور دو رویکرد اصلی‌ای هستند که در ریکامندر سیستم‌ها استفاده‌ می‌شوند.  همینطور رویکرد پالایش مشارکتی و روش زیر مجموعه این رویکرد، یعنی تجزیه ماتریسی رو توضیح دادم. این مطلب ادامه مطلب قبلیه که اگر نخوندید بهتره اول اون رو بخونید.

در تجزیه ماتریسی کاری که می‌کنیم اینه که از ماتریس امتیازها ویژگی‌های کاربر و محصول‌ها رو استخراج می‌کنیم. پس برای به دست آوردن ویژگی‌های قابل اتکا، به شدت وابسته به این هستیم که در ماتریس امتیازها، امتیازهای بیشتری وجود داشته باشد. این به این معناست که برای مثال، هر چه کاربرها فیلم‌های بیشتری را امتیاز داده باشند، ما هم ویژگی‌های بامعنی‌تری برای آن کاربرها و آن فیلم‌ها استخراج می‌کنیم.

اما وقتی یک فیلم جدید ساخته می‌شه چطور؟ هنوز هیچ کاربری به این قیلم رای نداده، پس هیچ اطلاعاتی در مورد این فیلم نداریم و نمی‌تونیم بردار ویژگی‌های این فیلم رو بسازیم. واضحه که در این صورت نمیشه از تجزیه ماتریسی و به طور کلی پالایش مشارکتی استفاده کرد.

ادامه این نوشته

نظر بدید

ریکامندرسیستم‌ها چطوری کار میکنند؟ (قسمت اول)

این روزها احتمالا اسم ریکامندر سیستم و یا سیستم توصیه‌گر رو بیشتر از قبل می‌شنویم. از اونجایی که الان بیشتر از یک‌ساله که روی این سیستم‌ها کار می‌کنم، به نظرم اومد بد نباشه در یک مطلب این سیستم‌ها رو خلاصه توضیح بدم و کمی از انواع روش‌هایی که این سیستم‌ها استفاده می‌کنند بگم.

ریکامندرسیستم

در سال‌های اخیر تعداد محصولات و کالاهایی که فروشنده‌ها و سرویس‌دهنده‌های اینترنتی ارائه می‌کنند حسابی افزایش یافته. شرکت‌ها محصولات بیشتری تولید می‌کنند تا نیازهای بیشتری از مشتری‌ها رو برطرف کنند. این اتفاق از طرفی باعث می‌شه حق انتخاب کاربر بالا بره و از طرفی حق انتخاب رو برای کاربر خیلی سخت می‌کنه.

ریکامندر سیستم‌ها یا سیستم‌های توصیه‌گر، تکنولوژی‌های به سرعت رو به توسعه‌ای هستند که به کاربرها و مشتری‌ها کمک می‌کنند تا محصولاتی که براشون جالبه یا بهش نیاز دارند رو به راحتی پیدا کنند. این سیستم‌ها در فروشگاه‌های اینترنتی کاربرد زیادی دارند، چون این فروشگاه‌ها حق انتخاب زیادی به کاربر میدن و انتخاب رو براش سخت می‌کنند. در حقیقت این سیستم‌ها هم برای کاربر و هم برای فروشنده ارزش افزوده دارند؛ به کاربر کمک می‌کنند تا محصول مورد نیازش رو پیدا کنه و به فروشنده کمک می‌کنند تا تبلیغات بهتری داشته باشد و به طور هدفمندتر محصولش رو به مشتری‌ها توصیه کنه. معمولا یک سیستم‌ توصیه‌گر محصولات را به وسیله تخمین امتیاز یا ساخت لیست مرتب شده از محصولات برای هر کاربر توصیه می کند.

ادامه این نوشته

۴ نظر

مقدمه‌ای بر مدل‌سازی آماری زبان

مدل‌سازی زبان (Language Modeling) تقریبا در تمام کاربردهای پردازش زبان طبیعی استفاده می‌شه. در این مطلب هدفم اینه که کمی مدل‌سازی زبان رو توضیح بدم،‌ کاربرد‌هاش رو بگم و اشاره‌ای کوتاه (صرفا در حد گفتن اسم) به روش‌هایی که برای مدل کردن زبان استفاده میشه بکنم. برای همین این مطلب رو میشه در سه بخش دید:

  1. مسئله‌ی مدل‌سازی زبان
  2. مدل‌سازی آماری زبان
  3. انواع روش‌ها

۱. مسئله مدل‌سازی زبان

اول لازمه بگیم که اصلا مدل‌سازی زبان یعنی چی.  زبان‌های فرمال، مثل زبان‌های برنامه‌نویسی، میتونن به طور کامل و دقیق مدل شن. در این زبان‌ها تمام کلمه‌های رزرو شده تعریف میشن و روش‌هایی که این کلمات میتونن استفاده شوند به طور دقیق مشخص میشن. اگر با علوم کامپیوتر آشنا باشید، احتمالا با نظریه محاسبه هم آشنایید (اتوماتا؟ DFA ؟ NFA ؟ عبارات منظم؟ کتاب پیتر لینز؟ یادتون میاد؟) یکی از کارهای نظریه محاسبه فرموله کردن این زبان‌هاست. اما ما نمی‌تونیم زبان‌های طبیعی رو به این شیوه مدل کنیم. این زبان‌ها طراحی نشده‌اند که نظم دقیق داشته باشند. این زبان‌ها به مرور زمان به وجود اومدند و توسعه یافتند.

شاید برای بخش‌های از زبان طبیعی هم قواعد فرمال وجود داشته باشه، اما این قواعد شامل تمام بخش‌های زبان نمی‌شوند. در زبان طبیعی ابهام‌های خیلی زیادی وجود داره که برای انسان‌ها قابل فهم هستند، اما برای کامپیوترها نه. زبان‌شناس‌ها سعی می‌کنند که تمام بخش‌های زبان طبیعی را با قواعد تعریف کنند، اما این قواعد معمولا بسیار سخت هستند و ضمن اینکه ‌می‌توانند به راحتی شکسته شوند.

برای همین است که در مدل‌سازی زبان طبیعی، سعی میشه تا از مثال‌ها و جملات و به عبارت دیگه “دیتا” استفاده شه.

۲. مدلسازی‌ آماری زبان

مدل‌سازی آماری زبان به توسعه مدل‌های آماری‌ای گفته میشه که میتونن کلمه‌ی بعدی در یک توالی از کلمات تخمین بزنند. این مدل‌ها چند کلمه قبلی را به عنوان ورودی دریافت می‌کنند و حدس می‌زنند چه کلمه‌ای ممکنه کلمه بعدی باشه.

مدل‌سازی آماری زبان به هر جمله‌ یک احتمال اختصاص میره و آن احتمال، احتمال وقوع همچین جمله‌ای در آن زبان است. علاوه بر تخصیص احتمال به هر جمله، این مدل‌ها احتمال حضور یک کلمه در یک توالی، به شرط دانستن کلمه‌های قبلی، را تخمین میزد.

یک مدل زبان، احتمال وقوع کلمات را با توجه به مثال‌های متنی‌ای که می‌بیند تخمین می‌زند. مدل‌های ساده‌تر تنها به چند کلمه قبلی نگاه می‌کنند، اما مدل‌های پیچیده‌تر ممکن است به کل جمله یا حتی پاراگراف نگاه کنند.

یک مدل زبانی ذاتا احتمالاتی است. یک مدل زبانی در واقع یک تابع است که به کلمات یک جمله و یا به کل جمله یک احتمال تخصیص می‌دهد.

مسئله مدل‌سازی زبان یک مسئله اصلی است که در کاربردهای مختلف پردازش زبان طبیعی استفاده می‌شود.

مدل سازی زبان کامپوننت اصلی مسائل دنیای واقعی مثل ترجمه ماشین، تبدیل گفتار به متن و … است. به همین دلیل است که مدل‌سازی زبان نقش مهم و اساسی‌ای در پردازش زبان طبیعی، هوش مصنوعی، و یادگیری ماشین ایفا می‌کند.

یک مثال خوب تبدیل گفتار به متن است که در آن اطلاعات صوتی به عنوان ورودی مدل استفاده می‌شود و برای تولید خروجی، لازم است یک مدل زبانی بسازیم که سیگنال‌های ورودی را دریافت کند و در هنگام تشخیص کلمه بعدی در ورودی صوتی، از کلمات قبلی استفاده کند. به طور مشابه مدل‌سازی زبان در کاربرهای زیر استفاده می‌شوند:

  • تشخیص متن از روی عکس Optical Character Recognition
  • تشخیص دستخط Handwriting Recognition
  • ترجمه ماشین Machine Translation
  • نوشتن کپشن برای عکس Image Captioning
  • خلاصه‌سازی متن Text Summarization
  • و کاربردهای بسیار دیگر

۳. انواع روش‌ها

تا قبل از استفاده از شبکه‌های عصبی مصنوعی، استفاده از N-Gram رایج‌ترین روش براش ساخت مدل زبان بود. اما اخیرا استفاده از شبکه‌های عصبی مصنوعی در ساخت مدلهای آماری زبان اخیرا رایج شده است و می‌شه گفت بهترین روش‌ حال حاضر است چون این روش‌ها نتایج بهتری نسبت به روش های قدیمی‌تر گرفته‌اند. شاید بتوان گفت مهمترین ویژگی این روش‌ که باعث شده است از روش‌ها قبلی پیشی بگیرد قابلیت تعمیم آن باشد. قابلیت تعمیم بحث گسترده‌ایه که اگر بخوام ساده بگم میشه گفت به این معنیه که مدل از روی داده آموزشی طوری آموزش ببینه و ویژگی‌هایی رو یاد بگیره که بتونه روی داده‌ای که هنوز ندیده به درستی عمل کنه.

شبکه‌های عصبی معروفی که در این کار استفاده می‌شوند RNN و LSTM هستند. این شبکه‌ها تو دسته یادگیری عمیق قرار می‌گیرند و شاید در نوشته‌های بعدی بیشتر در موردشون حرف زدیم.

نظر بدید

چه مهارت‌هایی در یادگیری ماشین باارزشند؟

ترجمه نسبتا آزاد این مطلب از Forbes

سوال: چه مهارت‌های مربوط به یادگیری ماشین برای ورود به عرصه صنعت و یا تحقیق علمی در این زمینه لازمه؟

جواب: معمولا مهمترین‌ و با ارزش‌ترین مهارت‌های لازم مربوط به حوزه یادگیری ماشین مهارت‌های کلی هستند. الان جوگیری زیادی تو این حوزه وجود داره. آدمهایی که صرفا یک درس آنلاین گذروندند . یادگرفتند که از یک پکیج یادگیری عمیق جطور باید استفاده کرد و دارن دنبال کار تو این حوزه می‌گردند من رو یاد کسانی می‌اندازند که که در دهه ۱۹۹۰ کتاب “یادگیری ویژوال بیسیک در ۲۰ روز” رو می‌خوندند، بدون اینکه چیزی از اصول و مقدمات علوم کامپیوتر بدونند. 

مهارت‌های مهم در این زمینه عبارتند از: ۱- فهم عمیق از آمار و احتمالات، بهینه سازی و ساخت مدل‌های کمی ۲- فهم اینکه این مدل‌ها و آنالیز داده چطور باید روی بیزنس‌ها و مسائل مربوط به آنها اعمال شوند. 

علامه بر بالا، این مهارت‌ها هم در سال ۲۰‍۱۷ برای ورود به این حوزه لازم به نظر می‌رسند: 

  • داشتن مهارت بالا در ساخت نرم‌افزار‌های با کیفیت بالا. قبل‌تر دو تیم مختلف، یکی برای ساخت مدل‌های یادگیری ماشین و دیگری برای تبدیل آن به نرم‌افزار و محصول وجود داشت. اما الان اون دوران به پایان رسیده. با استفاده از زبان‌های برنامه نویسی‌ای مثل پایتون و R و پکیج‌های مختلف آنها، این خواسته غیر معقولی نیست که یک دانشمند داده یا یک مهندس یادگیری ماشین توانایی برنامه‌نویسی بالایی داشته باشد و مبانی طراحی و توسعه یک نرم‌افزار را بداند. 
  • مهارت کار با داده‌های حجیم. اگر چه استفاده از عبارت “بیگ دیتا” این روزها حسابی رونق داره، اما این حقیقت هم هست که هزینه دیتا استوریج ها داره روز به روز پایین‌تر میاد و این به این معنیه که روز به روز دیتاست‌های بیشتری در حوزه‌های مختلف به وجود میان که میشه ازشون استفاده کرد.
  • و اینکه بهتره در یکی از حوزه‌های تخصصی‌تر یادگیری ماشین، مانند : بینایی ماشین، پردازش زبان طبیعی، ریکامندر سیستم (سیستم‌های توصیه‌گر) و … تخصص داشته باشید.  
نظر بدید

دیتاساینس به زبان ساده: اصول و فرایند

دیتا نفت جدیده! باارزشه اما اگر تغییر نکنه و پالایش نشه قابل استفاده نیست. باید تبدیل به بنزین و پلاستیک و … بشه تا تبدیل به یک چیز باارزش بشه، چیزی که میشه باهاش کارای سودآور کرد. پس دیتا باید به بخش‌های کوچیکتر تبدیل بشه و آنالیز بشه تا ارزشش آشکار شه. 

سال ۲۰۱۶ بود که کیف هامبلی، ریاضیدان معروف بریتانیایی جملات بالا رو گفت.

انقلاب و رشد تلفن‌های هوشمند و پیشرفت در تکنولوژی‌های داده‌های بزرگ، باعث به وجود اومدن انقلابی شده. در سال ۲۰۱۲، HBR مقاله ای منتشر کرد که در اون از شغل جدیدی گفت؛ شغلی مرکب از هکرهای دیتا، آنالیزورها، برنامه‌نویس‌ها و مشاورهای قابل اعتماد.

حالا هم هر سازمانی سعی میکنه که تا بیشتر از داده‌ها و تکنیک‌های مربوط بهش استفاده کنه. یکی از این تکنیک‌هایی که تابه حال به موفقیت سازمانها کمک کرده و میکنه یادگیری ماشینه. من متوجه شدم که تمام متریالها و منابعی که در این زمینه وجود دارند خیلی فنی‌اند و فهمیدنشون راحت نیست. در این سری از مقالات هدف من اینه که دیتاساینس رو به زبون ساده بیان کنم. تا هر کسی بتونه از این رشته سررشته‌ای به دست بیاره.

در این مقاله، من با توضیح دادن اصول مهم و اساسی شروع میکنم و از مسائلی که در دیتاساینس به دنبال حلشون هستیم میگم و روال حل این مسائل رو توضیح میدم.

دیتاساینس یک علمیه که محل تقاطع چند علم دیگه محسوب میشه:

  • بیزنس
  • یادگیری آماری و همون یادگیری ماشین
  • برنامه‌نویسی کامپیوتر

در این مجموعه مقالات تلاش من بر اینه که روی بخش یادگیری ماشین تمرکز کنم. این مقاله رو با توضیح اصول کلی، روال عمومی حل مسائل، و تشریح انواع مسائل شروع میکنم.

ادامه این نوشته

۲ نظر

فیسبوک پیاده‌سازی آزاد DrQA رو منتشر کرد

فیسبوک که یکی از جدی‌ترین شرکتهای فعال تو هوش مصنوعی محسوب میشه، امسال مقاله‌ای داد که در اون DrQA و نحوه عملکردنش رو معرفی کرد. DrQA یک سیستم open-domain question ( ترجمه‌اش چی میشه؟ پاسخگویی به سوالات با دامنه باز؟ سوالات از هرجا؟ نمیدونم!) مبتی بر شبکه‌های عصبی بازگشتیه (Recurrent Neural Network) که با استفاده از تمام مقالات ویکی‌پدیا (که بیشتر از ۵ میلیونه) میسازه و سپس جواب سوالاتی که ازش پرسیده بشه رو با این استفاده از این مقالات میده.

ادامه این نوشته

نظر بدید

نظر کوفاندرهای اینستاگرام در مورد شانس!

امروز بعد از الکامپ یکی از پادکستهای قدیمیتر How I built this رو گوش میدادم که در اون مجری (David Greene ) با دو موسس اینستاگرام یعنی Kevin Systorm و Mike Krieger در مورد اینستاگرام و موفقیتشون صحبت میکنه. اگر نمیدونید لازمه بگم که اینستاگرام استارت‌آپی بود که دو سال بعد از راه‌اندازیش، ۱ میلیارد دلار خریداری شد!

مجری (David): چقدر از اتفاقهایی که برای شما پیش اومد (موفقیت‌هاتون) شانس بود؟

Kevin: به نظر من پنجاه درصد! در واقع من یه نظریه دارم که میگه دنیا براساس شانس حرکت میکنه! سوال مهم اینه که شما از این شانس چطور استفاده میکنید. هر کسی به یک اندازه‌ای تو زندگیش شانس میاره و سوال اصلی اینه که آیا تو به اندازه کافی هوشیار هستی که بفهمی داری شانس میاری؟ آیا به اندازه کافی با استعداد هستی که از این شانس استفاده کنی؟ و آیا اونقدر پشتکار داری که ادامه بدی؟ چون به نظر من هر کسی در هفته یک حداقل شانس‌هایی میاره. مثلا تو یه دلار روی زمین پیدا میکنی و یا شرکت محل کارت بهت فرصت میده که روی یه پروژه جذاب کار کنی، یا یه آدم باحال رو ملاقات میکنی! تفاوت بین آدمهایی که موفق میشن و اونهایی که نمیشن اینه که موفق‌ها از شانسشون استفاده میکنند و اون‌یکی‌ها نمیکنند. ما خوش شانس بودیم که ایده درستی رو در زمان درستی داشتیم و در جای درستی بودیم. ما خوش‌شانس بودیم که هم دیگه رو ملاقات کردیم (اون یکی فاندر اینستاگرام، Mike )، منظورم اینه که تعداد زیادی از زوج-کوفاندرها هستند که موفق نمیشن با هم کار کنن. درنهایت سوال اینه که آیا میتونی این شانس رو بگیری و ازش استفاده کنی؟

نظر بدید

بهترین معماری برای برنامه‌های اندروید

شما برنامه‌نویس اندروید هستید؟ از چه معماری‌ای برای نوشتن نرم‌افزارهاتون استفاده میکنید؟ MVC؟ MVP؟ یا شاید هم معماری خاصی ندارید و هر جوری که دوست دارید کدها رو مینویسید؟

تست هم مینویسید؟ اگر آره چه اصولی رو تو معماری کدهاتون رعایت میکنید تا تست نوشتن آسون و یا اساسا ممکن بشه؟ و اگر تست نمینویسید چجوری میتونید مطمئن باشید که کد درستی نوشتید؟

یک سالی هست که این سوالها دغدغه منه. از آدمای زیادی پرسیدم و با برنامه‌نویسهای اندروید زیادی حرف زدم تا بفهمم هر کدومشون از چه معماری‌ای استفاده میکنند. هدف من اینه که میخوام برای برنامه‌های اندرویدیم تست بنویسم تا بتونم کارکرد صحیحشون رو گارانتی کنم. ولی تست نوشتن تو اندروید کار ساده‌ای به نظر نمیرسید. وقتی سعی میکنید کدها رو براساس MVC بنویسید منطق و UI در داخل اکتیویتی یا فرگمنتها به شدت درهم تنیده میشن و عملا خیلی وقتها تست نوشتن غیر ممکن میشه. همین شد که لزوم وجود یه معماری درست و اصولی که با ساختار برنامه‌های اندروید هم سازگار باشه رو بیشتر از قبل حس کردم و برای پیدا کردنش کفش آهنی به پا کردم!

نتایج جست‌و‌جوی من بین بقیه برنامه‌نویسها خیلی امیدوار کننده نبود! آدمها معمولا برای برنامه‌هاشون تست نمینویسن، شرکتها هم عموما به تست نوشتن اهمیت نمیدن و فرق بین کسی که برنامه‌اش رو برپایه یک معماری اصولی بنا میکنه و کسی که کدش صرفا کار میکنه رو متوجه نمیشن. همین باعث میشه که برنامه‌نویسها هم دلیلی برای نوشتن تست نداشته باشند!

جست‌و‌جوی من ادامه داشت تا به این آدم برخوردم. نوشته‌های این دختر خانم برای من شبیه نوری در تاریکی بود که بالاخره من رو به حقیقت رسوند! ایشون که یک برنامه‌نویس اندروید آلمانیه سه مطلب خیلی عالی در مدیوم نوشته و در این سه مطلب سه معماری MVC و MVP و MVVM رو بررسی کرده. اگر فرصت داشتید نوشته‌های مدیومش رو بخونید که عالیه. اما اگر نداشتید هم دیدن این پرزنتیشن تا حد زیادی بهتون ایده میده:

من این روزها تو اوقات آزادم دارم سعی میکنم روی MVVM کمی وقت بذارم به باهاش راحت شم! این کار لازم داره که با کتابخونه‌های جالبی مثل RxJava و Dagger2 کار کنم که در ابتدا باعث کندی روند پیشرفت میشن. اما سعی میکنم به زودی روی این معماری مسلط شم و اگر فرصت شد، همزمان با پیشرفت خودم، از روند کاری که میکنم مطلب بذارم تا اگر بتونم به کسایی که علاقمندند کمکی کرده باشم.

۲ نظر

هوش مصنوعی، یادگیری ماشین و از اینجور داستانا! (قسمت دوم)

تو قسمت قبلی تعریفی از هوش مصنوعی ارائه دادیم و اینجا قراره در مورد یکی از رویکردهای هوش‌ مصنوعی،‌ یعنی یادگیری ماشین صحبت کنیم.

یادگیری ماشین: یادگیری تعاریف زیادی داره. یکی از تعاریف یادگیری اینه که کارهای گذشته و تجربه‌ای که از گذشته داریم،  باعث میشه که در آینده رفتار درست‌تری داشته باشیم. سگی رو تصور کنید که بعد از انجام کاری که از نظر صاحبش کار خوبی نبود، دعوا میشه. این سگ به مرور یاد میگیره که نباید این کار رو انجام بده و آروم آروم رفتارش رو اونجوری تنظیم میکنه که مربیش بهش میگه. اینجا سگ یه راهنما داشت،‌ اما لزوما همیشه اینطور نیست و در پروسه یادگیری همیشه مربی وجود نداره. بچه‌ای رو تصور کنید که در ابتدای شناخت رنگها قرار داره و هنوز حتی اسم رنگ‌ها رو نمیدونه. این بچه به مرور و با تجربه میفهمه که مثلا رنگ‌هایی که آبی هستند یا نزدیک به آبی‌اند، با رنگهای قرمز و نزدیک به قرمز تفاوت دارند. این بچه به مرور رنگها رو توی ذهنش دسته بندی میکنه بدون اینکه کسی کمکش کرده باشه یا اسم رنگ‌ها رو یاد گرفته باشه.

یادگیری اگر مطابق با تعریف اول (همراه با راهنما) باشه، یادگیری با نظارت یا superviesed learning نام داره و اگه مطابق با تعریف دوم (بدون راهنما) باشه، یادگیری بدون نظارت یا unsupervied learning نام داره.

ما تو یادگیری ماشین کاری که میکنیم اینه که با استفاده از داده‌هایی که داریم،‌ مدلی میسازیم که با استفاده از این مدل بتونیم برای داده‌هایی که هنوز نداریم پاسخ مناسب به دست بیاریم. اجازه بدید این رو با یه مثال خیلی ساده توضیح بدم.

ادامه این نوشته

۳ نظر
android application Google I/O HomeBrew ImageMagick Material Design mobile PogressBar RecyclerView splash TEDxKish ux آموزش اندروید الوین تافلر اندروید اپلیکیشن برنامه نویسی برنامه نویسی اندروید برنامه‌نویسی برنامه‌نویسی اندروید تداکس کیش تعمیر تغییر سایز عکس با ترمینال خلاصه کتاب دانش داده دانشگاه دانشگاه ایده‌آل دزد دیتا ساینس رشته مهندسی کامپیوتر ریکامندرسیستم سیستم‌های توصیه‌گر فری‌لنس لپتاپ متریال دیزاین معرفی کتاب موج سوم نوار پیشرفت همایش هوش مصنوعی ُجزیره کیش کار کسب و کار یادگیری عمیق یادگیری ماشین