به گزارش گروه دانشگاه خبرگزاری دانشجو، مدل برتر بعدی چه چیزی یا بهتر است بگوییم چه کسی خواهد بود؟ دانشمندان داده و توسعه دهندگان در مرکز شتاب دهنده ملی توماس جفرسون در وزارت انرژی ایالات متحده در تلاش هستند تا با بررسی برخی از آخرین تکنیکهای هوش مصنوعی (AI) به رایانههای با کارایی بالا قابل اعتمادتر و هزینه کمتری برای کار کردن بپردازند.
مدلها در این مورد، شبکههای عصبی مصنوعی هستند که برای نظارت و پیشبینی رفتار یک خوشه محاسباتی علمی آموزش دیدهاند، جایی که تورنتهایی از اعداد دائماً خرد میشوند. هدف این است که به مدیران سیستم کمک کند تا به سرعت کارهای محاسباتی را شناسایی کرده و به آنها واکنش نشان دهند و زمان خرابی دانشمندانی را که دادههای آزمایشهایشان را پردازش میکنند، کاهش دهد.
تقریباً در سبک نمایش مد، این مدلهای یادگیری ماشینی (ML) قضاوت میشوند تا ببینند کدامیک برای نیازهای دادههای همیشه در حال تغییر برنامههای آزمایشی مناسبتر است. اما بر خلاف سریال تلویزیونی واقعی «مدل برتر بعدی آمریکا» و اسپینآفهای بینالمللی آن، انتخاب برنده یک فصل کامل طول نمیکشد. در این مسابقه، هر ۲۴ ساعت یک "مدل قهرمان" جدید بر اساس توانایی آن در یادگیری از دادههای تازه تاج گذاری میشود.
برایان هس، مدیر عملیات محاسباتی علمی آزمایشگاه جفرسون و محقق اصلی - یا به اصطلاح قاضی - در این مطالعه گفت: ما در حال تلاش برای درک ویژگیهای خوشههای محاسباتی خود هستیم که قبلاً ندیدهایم. " این مرکز داده را به روشی جامعتر نگاه میکند، و در آینده، این نوعی مدل هوش مصنوعی یا ML خواهد بود.
در حالی که این مدلها برنده هیچ عکسبرداری درخشانی نیستند، این پروژه اخیراً در نرمافزار IEEE به عنوان بخشی از نسخه ویژهای که به یادگیری ماشین در عملیات مرکز داده (MLOps) اختصاص داده شده است، مورد توجه قرار گرفته است. نتایج این مطالعه میتواند پیامدهای بزرگی برای علم بزرگ داشته باشد.
نیاز
ابزارهای علمی در مقیاس بزرگ، مانند شتاب دهندههای ذرات، منابع نور و تلسکوپهای رادیویی، امکانات حیاتی DOE هستند که امکان کشف علمی را فراهم میکنند. در آزمایشگاه جفرسون، این مرکز شتابدهنده پرتو الکترونی پیوسته (CEBAF) است، یک تأسیسات کاربر دفتر علوم DOE که جامعه جهانی بیش از ۱۶۵۰ فیزیکدان هستهای به آن متکی است.
آشکارسازهای آزمایشی در آزمایشگاه جفرسون نشانههای ضعیفی از ذرات ریز را که از پرتوهای الکترونی CEBAF سرچشمه میگیرند جمعآوری میکنند. از آنجایی که CEBAF ۲۴/۷ پرتو تولید میکند، این سیگنالها به کوههایی از داده تبدیل میشوند. اطلاعات جمع آوری شده به ترتیب دهها پتابایت در سال است. این برای پر کردن هارد یک لپتاپ معمولی تقریباً یک بار در دقیقه کافی است.
فعل و انفعالات ذرات در مرکز داده آزمایشگاه جفرسون با استفاده از خوشههای محاسباتی با توان عملیاتی بالا با نرم افزار متناسب با هر آزمایش پردازش و تجزیه و تحلیل میشوند.
در میان چراغهای چشمک زن و کابلهای همراه، کارهای پیچیدهای که به چندین پردازنده (هسته) نیاز دارند، معمول هستند. ماهیت سیال این بارها به معنای بسیاری از قطعات متحرک و چیزهای بیشتری است که ممکن است اشتباه پیش بروند.
برخی از کارهای محاسباتی یا مشکلات سخت افزاری میتوانند منجر به رفتار غیرمنتظره خوشهای شوند که به آن "ناهنجاری" گفته میشود. آنها میتوانند شامل تکه تکه شدن حافظه یا تعهدات بیش از حد ورودی/خروجی باشند که منجر به تاخیر برای دانشمندان میشود.
احمد حسام محمد، محقق فوق دکترا در آزمایشگاه جفرسون و محقق این مطالعه، گفت: وقتی خوشههای محاسباتی بزرگتر میشوند، پیگیری همه مؤلفههایی که ممکن است خراب شوند برای مدیران سیستم دشوار میشود. ما میخواستیم این فرآیند را با مدلی خودکار کنیم که هر وقت اتفاق عجیبی میافتد، چراغ قرمز چشمک میزند. به این ترتیب، مدیران سیستم میتوانند قبل از بدتر شدن شرایط، اقدام کنند.
یک رویکرد DIDACT-ic
برای مقابله با این چالش ها، این گروه یک سیستم مدیریت مبتنی بر ML به نام DIDACT (مرکز داده دیجیتال دوقلو) توسعه داد. مخفف عبارت بازی با کلمه "آموزشی" است، که چیزی را توصیف میکند که برای آموزش طراحی شده است. در این مورد، آموزش شبکههای عصبی مصنوعی است.
DIDACT پروژهای است که توسط برنامه تحقیق و توسعه هدایت شده آزمایشگاهی جفرسون (LDRD) تامین میشود. این برنامه منابعی را برای کارکنان آزمایشگاه فراهم میکند تا پروژههایی را دنبال کنند که میتواند کمکهای سریع و قابلتوجهی به مشکلات حیاتی علم و فناوری ملی مرتبط با مأموریت و/یا ارتقای قابلیتهای علمی و فنی اصلی آزمایشگاه داشته باشد.
سیستم DIDACT برای شناسایی ناهنجاریها و تشخیص منبع آنها با استفاده از رویکرد هوش مصنوعی به نام یادگیری مداوم طراحی شده است.
در یادگیری مستمر، مدلهای ML بر روی دادههایی آموزش داده میشوند که به صورت تدریجی به دست میآیند، شبیه به یادگیری مادامالعمر تجربه شده توسط افراد و حیوانات. تیم DIDACT چندین مدل را به این روش آموزش میدهد که هر کدام نشاندهنده پویایی سیستم کارهای محاسباتی فعال هستند، سپس بر اساس دادههای آن روز، بهترین عملکرد را انتخاب میکنند.
مدلها انواعی از شبکههای عصبی بدون نظارت به نام رمزگذار خودکار هستند. یکی مجهز به یک شبکه عصبی گراف (GNN) است که به روابط بین اجزا نگاه میکند.
دیانا مک اسپادن، دانشمند داده آزمایشگاه جفرسون و سرپرست مطالعه MLOps میگوید: آنها با استفاده از دادههای شناخته شده برای تعیین خطای کمتری با یکدیگر رقابت میکنند. "هر کدام آن روز برنده میشد "قهرمان روزانه" بود.
این روش روزی میتواند به کاهش زمان از کار افتادگی در مراکز داده و بهینهسازی منابع حیاتی به معنای کاهش هزینهها و بهبود علم کمک کند.
مدل برتر بعدی
تیم DIDACT برای آموزش مدلها بدون تأثیرگذاری بر نیازهای محاسباتی روزمره، یک خوشه بستر آزمایشی به نام «جعبهی ماسهای» را توسعه داد. ماسهبازی را بهعنوان باندی در نظر بگیرید که بر اساس توانایی آنها در تمرین امتیاز میگیرند.
نرم افزار DIDACT مجموعهای از کدهای منبع باز و سفارشی ساخته شده است که برای توسعه و مدیریت مدلهای ML، نظارت بر خوشه جعبه شنی و نوشتن دادهها استفاده میشود. تمام آن اعداد روی داشبورد گرافیکی تجسم میشوند.
این سیستم شامل سه خط لوله برای "استعداد" ML است. یکی برای توسعه آفلاین است، مانند یک تمرین لباس. یکی دیگر برای یادگیری مستمر است - جایی که رقابت زنده برگزار میشود. هر بار که یک مدل برتر جدید ظاهر میشود، به ناظر اصلی رفتار خوشهای در خط لوله بلادرنگ تبدیل میشود - تا زمانی که برنده روز بعد از آن خارج شود.
هس، که همچنین معمار زیرساخت مرکز تسهیلات داده با عملکرد بالا است که در آزمایشگاه جفرسون با مشارکت آزمایشگاه ملی لارنس برکلی DOE ساخته شده است، گفت: DIDACT نشان دهنده یک ترکیب خلاقانه از سخت افزار و نرم افزار منبع باز است. این ترکیبی از چیزهایی است که معمولاً آنها را کنار هم نمیگذارید، و ما نشان دادهایم که میتواند کار کند. این واقعاً از قدرت علم دادهها و تخصص عملیات محاسباتی آزمایشگاه جفرسون استفاده میکند.
در مطالعات آتی، تیم DIDACT میخواهد چارچوب ML را بررسی کند که مصرف انرژی مرکز داده را چه با کاهش جریان آب مورد استفاده در خنکسازی و چه با کاهش هستهها بر اساس نیازهای پردازش داده بهینه میکند.
هس میگوید: هدف همیشه این است که پول بیشتری برای دلار فراهم کنیم، علم بیشتر برای دلار.