كشف راهی برای آموزش هوش مصنوعی با داده های خیلی كم
به گزارش پارسی کاو شرکت ˮانویدیاˮ(NVIDIA) راهی برای آموزش هوش مصنوعی با داده های خیلی کم یافته است.
به گزارش پارسی کاو به نقل از ایسنا و به نقل از انگجت، شرکت "انویدیا" رویکرد جدیدی را برای آموزش "شبکه های زایای دشمن گونه"(GANs) بوجود آورده است که می تواند روزی آنها را برای انجام کارهای مختلف و بزرگتری مناسب سازد.
پیش از توضیح کار شرکت "انویدیا"، بد نیست کمی در مورد نحوه کار "شبکه زایای دشمن گونه"(GAN) بدانیم. هر "GAN" از دو شبکه عصبی رقیب تشکیل شده است: یک مولد و یک جدا کننده. هدف الگوریتم در مولد، ایجاد تصاویر جدید است و جدا کننده هزاران تصویر حاصل را بررسی می کند. سپس از این داده ها برای مربیگری یا آموزش همتای خود استفاده می نماید.
شبکه های زایای دشمن گونه سنتی به منظور ایجاد نتایج مداوم و باورپذیر به حدود 50 هزار تا 100 هزار تصویر آموزشی نیاز دارند و با تعداد تصاویر کم به مشکل می خورند. در این موارد، جدا کننده اطلاعات پایه کافی ندارد تا بتواند به صورت موثر مولد را مربیگری کند.
"شبکه های زایای دشمن گونه"(Generative Adversarial Networks) یک کلاس از چارچوب های یادگیری ماشین هستند که به دست "ایان گودفلو" و همکارانش در سال ۲۰۱۴ پیشنهاد شدند. دو شبکه عصبی در یک بازی روبروی یکدیگر قرار می گیرند؛ در قالب یک بازی با گردایش صفر، که سود یک کنشگر ضرر کنشگر دیگر است.
در این روش شبکه فرا می گیرد چگونه از داده های آموزش، داده های جدیدی به وجود بیاورد که از دید آماری داده های آموزش و به وجود آمده همسان باشند. برای نمونه، شبکه زایای دشمن گونه آموزش یافته می تواند تصاویر جدیدی را به وجود آورد که از دید بیننده درست باشد و خیلی از خصوصیت های داده های آموزشی را در بر بگیرد.
ایده بنیادی شبکه های زایای دشمن گونه بر پایه آموزش جداکننده است. بدین ترتیب، شبکه زایا به جای اینکه به دنبال کاهش فاصله با یک عکس باشد، در کوشش برای گمراه کردن شبکه جداکننده خواهد بود. ازاین رو مدل، توانایی این را پیدا می کند که به وجود آوردن عکس ها را فرا بگیرد.
در گذشته، یکی از روش های محققان هوش مصنوعی برای حل این مشکل، استفاده از روشی به نام "تقویت داده" بود. با استفاده مجدد از یک الگوریتم تصویر بعنوان نمونه، در مواردی که مطالب زیادی برای کار وجود ندارد، آنها تلاش می کردند با ایجاد کپی های تحریف شده از داده های موجود، این مشکل را برطرف کنند. تحریف در این حالت می تواند به معنای برش یک تصویر، چرخاندن آن یا برگرداندن آن باشد. ایده این کار هم این است که شبکه هیچگاه یک تصویر را دو بار نبیند.
مشکل این روش این است که منجر به شرایطی می شود که GAN به جای خلق چیزی جدید، از آن تحریفات تقلید می کند. رویکرد جدید شرکت "انویدیا" معروف به "تقویت سازگار جدا کننده"(ADA) هنوز از همین روش "تقویت داده" استفاده می نماید، اما این کار را به صورت تطبیقی انجام می دهد. یعنی به جای اینکه تصاویر را در کل مراحل آموزش، تحریف کند، این کار را به صورت انتخابی و به اندازه کافی انجام می دهد تا GAN به مشکل نخورد.
نتیجه بالقوه رویکرد جدید "انویدیا" معنادارتر از آن است که تصور کنید. آموزش یک هوش مصنوعی برای نوشتن یک بازی جدید ماجراجویی مبتنی بر متن، آسان است، چونکه مواد زیادی برای کار الگوریتم وجود دارد، اما این مورد درباره خیلی از وظایف دیگر که محققان می توانند برای کمک به GANها متوسل شوند، صدق نمی کند.
بعنوان مثال، آموزش یک الگوریتم برای تشخیص یک اختلال عصبی نادر در مغز دقیقاً به علت نادر بودن آن دشوار است. با این وجود، یک GAN آموزش دیده با رویکرد "ADA" می تواند این مشکل را برطرف کند.
همینطور پزشکان و محققان می توانند یافته های خویش را با سهولت بیشتری به اشتراک گذارند، چونکه آنها در حال کار بر روی یک پایه از تصاویر بوجود آمده توسط هوش مصنوعی هستند، نه بیماران در دنیای واقعی.
شرکت "انویدیا" اطلاعات بیشتری را در مورد رویکرد "ADA" در کنفرانس آتی "NeurIPS" که از شش دسامبر شروع شده است، به اشتراک می گذارد.
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب