شرکت “انویدیا”(NVIDIA) راهی برای آموزش هوش مصنوعی با داده‌های بسیار کم یافته است.

به گزارش ایسنا و به نقل از انگجت، شرکت “انویدیا” رویکرد جدیدی را برای آموزش “شبکه‌های زایای دشمن گونه”(GANs) ایجاد کرده است که می تواند روزی آنها را برای انجام کارهای مختلف و بزرگتری مناسب سازد.

قبل از توضیح کار شرکت “انویدیا”، بد نیست کمی در مورد نحوه کار “شبکه زایای دشمن گونه”(GAN) بدانیم. هر “GAN” از دو شبکه عصبی رقیب تشکیل شده است: یک مولد و یک جدا کننده. هدف الگوریتم در مولد، ایجاد تصاویر جدید است و جدا کننده هزاران تصویر حاصل را بررسی می کند. سپس از این داده ها برای مربیگری یا آموزش همتای خود استفاده می کند.

شبکه های زایای دشمن گونه سنتی به منظور ایجاد نتایج مداوم و باورپذیر به حدود ۵۰ هزار تا ۱۰۰ هزار تصویر آموزشی نیاز دارند و با تعداد تصاویر کم به مشکل می خورند. در این موارد، جدا کننده اطلاعات پایه کافی ندارد تا بتواند به طور موثر مولد را مربیگری کند.

“شبکه‌های زایای دشمن گونه”(Generative Adversarial Networks) یک کلاس از چارچوب‌های یادگیری ماشین هستند که به دست “ایان گودفلو” و همکارانش در سال ۲۰۱۴ پیشنهاد شدند. دو شبکه عصبی در یک بازی روبروی یکدیگر قرار می‌گیرند؛ در چارچوب یک بازی با گردایش صفر، که سود یک کنشگر ضرر کنشگر دیگر است.

در این روش شبکه فرا می‌گیرد چگونه از داده‌های آموزش، داده‌های جدیدی به وجود بیاورد که از دید آماری داده‌های آموزش و به وجود آمده همسان باشند. برای نمونه، شبکه زایای دشمن گونه آموزش‌ یافته می‌تواند عکس‌های جدیدی را به وجود آورد که از دید بیننده درست باشد و بسیاری از ویژگی‌های داده‌های آموزشی را در بر بگیرد.

ایده بنیادی شبکه‌های زایای دشمن گونه بر پایه آموزش جداکننده است. بدین ترتیب، شبکه زایا به جای اینکه در پی کاهش فاصله با یک عکس باشد، در تلاش برای گمراه کردن شبکه جداکننده خواهد بود. بنابراین مدل، توانایی این را پیدا می کند که به وجود آوردن عکس‌ها را فرا بگیرد.

در گذشته، یکی از روش های محققان هوش مصنوعی برای حل این مشکل، استفاده از روشی به نام “تقویت داده” بود. با استفاده مجدد از یک الگوریتم تصویر به عنوان نمونه، در مواردی که مطالب زیادی برای کار وجود ندارد، آنها سعی می کردند با ایجاد کپی‌های تحریف شده از داده‌های موجود، این مشکل را برطرف کنند. تحریف در این حالت می‌تواند به معنای برش یک تصویر، چرخاندن آن یا برگرداندن آن باشد. ایده این کار نیز این است که شبکه هرگز یک تصویر را دو بار نبیند.

مشکل این روش این است که منجر به شرایطی می‌شود که GAN به جای خلق چیزی جدید، از آن تحریفات تقلید می‌کند. رویکرد جدید شرکت “انویدیا” موسوم به “تقویت سازگار جدا کننده”(ADA) هنوز از همین روش “تقویت داده” استفاده می‌کند، اما این کار را به صورت تطبیقی ​​انجام می‌دهد. یعنی به جای اینکه تصاویر را در کل مراحل آموزش، تحریف کند، این کار را به صورت انتخابی و به اندازه کافی انجام می‌دهد تا GAN به مشکل نخورد.

نتیجه بالقوه رویکرد جدید “انویدیا” معنادارتر از آن است که تصور کنید. آموزش یک هوش مصنوعی برای نوشتن یک بازی جدید ماجراجویی مبتنی بر متن، آسان است، زیرا مواد زیادی برای کار الگوریتم وجود دارد، اما این مورد درباره بسیاری از وظایف دیگر که محققان می‌توانند برای کمک به GANها متوسل شوند، صدق نمی‌کند.

به عنوان مثال، آموزش یک الگوریتم برای تشخیص یک اختلال عصبی نادر در مغز دقیقاً به دلیل نادر بودن آن دشوار است. با این حال، یک GAN آموزش دیده با رویکرد “ADA” می تواند این مشکل را برطرف کند.

همچنین پزشکان و محققان می‌توانند یافته‌های خود را با سهولت بیشتری به اشتراک بگذارند، زیرا آنها در حال کار بر روی یک پایه از تصاویر ایجاد شده توسط هوش مصنوعی هستند، نه بیماران در دنیای واقعی.

شرکت “انویدیا” اطلاعات بیشتری را در مورد رویکرد “ADA” در کنفرانس آتی “NeurIPS” که از شش دسامبر آغاز شده است، به اشتراک می‌گذارد.

انتهای پیام